יום ראשון, 27 באוגוסט 2023

כיצד מתמודדים עם סיכוני AI?

 


שנת 2023 מסתמנת כשנת הפריצה של האינטליגנציה המלאכותית (AI). אין ספק שיהיו בתחום הזה שינויים והתפתחויות משמעותיות בעתיד, אבל כבר היום זהו נושא שבמרכז העניינים. 

לא מעט בגלל האפשרויות החדשות בתחום שמציעה תוכנת ChatGPT. גם תוכנות אחרות מציעות דברים דומים, אבל טרם זכו בפופולריות גדולה כל כך. 


בפוסט הרומן שלי עם AI תיארתי את נקודות המפגש שלי עם AI החל משנות ה-70 של המאה הקודמת. הצבעתי על ההתפתחות המהירה והעצמת היכולות של AI. 

במשפטים ספורים בסוף הפוסט הצבעתי גם על סיכונים. במקרה הקיצון התממשותם עלולה להשמיד את העולם בו אנו חיים. 

הפוסט המוזכר לעיל הוא פוסט הנוגע בתיאוריה של AI ובסיכונים העלולים להתרחש ברמה פילוסופית בלבד. 

פוסט זה הוא פוסט טכני מזווית ראייה של מומחים לניהול סיכונים.


תקן לניהול סיכונים


בסיס להתמודדות מסודרת עם ניהול סיכונים ברמה הארגונית ולפעמים גם ברמה משפחתית וברמה אישית הוא תקן. 

משפחת תקני ISO 31000 היא תקינה מובילה בתחום של ניהול סיכונים. 

העקרונות, ההנחיות ה-Framework והתהליכים הכלולים בתקן, שמשמשים בסיס לניהול סיכונים בכלל, עשויים להוות בסיס גם לניהול סיכוני AI. 

כמו כל שינוי תפיסתי ו/או טכנולוגי מהותי גם AI מחייב התאמה או הרחבה של התקנים על מנת לטפל באופן מתאים בסיכונים הנובעים ממנו.


אין בשלות


המקום המרכזי שתופס AI הוא תופעה חדשה. עדיין איננו מבינים את הנושא והמשמעויות שלו. בוודאי שעדיין איננו יודעים להתאים את התקנים ל-AI. עוד פחות אנחנו יודעים להתמודד בפועל עם הסיכונים. 

השורה התחתונה היא שאין עדיין בשלות. 

בהקשר של רגולציה לסיכוני AI מתחילה להיווצר רגולציה מקומית באירופה, ארצות הברית, יפן ומדינות נוספות. 

גם רגולציה זו רחוקה מלהיות בשלה. 


כמה נקודות שמעלים מומחים


יציאה מהתפיסה של מערכות AI כקופסה שחורה

תפיסת ה-Black Box אינה מאפשרת הבנה מלאה של רמת הסיכונים ומקשה על התמודדות עם אירועי סיכון.


התאמת רגולציה

גם הרגולציה בתחום ה-AI רחוקה מלהיות בשלה. צריך להתאים רגולציה קיימת גם ל-AI. 

דוגמה אחת היא צורך בקיצור הזמנים בין בחינה לבחינה של אפקטיביות הרגולציה.

בין השאר חשוב לעדכן רגולציה בתחום של Cyber Security.


גם סיכונים של טעויות לא מכוונות


נוטים להתמקד בסיכונים של AI הנובעים מכוונות זדון, אבל גם אירועי טעויות לא מכוונות עלולים להיות סיכונים ברמת חומרה גבוהה.


דברים נוספים


1. עירוב Stakeholders רלוונטיים בתהליך. בדיוק כפי שזה נעשה בסיכונים אחרים.

2. הגדרת מדדים להערכת הסיכונים.


ChatGPT

 

זוהי תוכנת ה-AI הפופולרית הנמצאת במרכז העניינים.

יש לה לא מעט בעיות.

באירופה בודקים את משמעות השימוש בה. באיטליה חסמו אותה.

עלולה לגרום נזק רב במקרה שיוזן אליה מידע לא נכון.


השורה התחתונה


פריצת הדרך במערכות AI מביאה אותן למקום מרכזי. בעתיד הן צפויות לתפוס מקום חשוב יותר. נדרשת היערכות לטיפול בהן בהיבט של ניהול סיכונים. 

כרגע נעשים צעדים ראשונים לתקינה המתאימה לסיכוני מערכות AI.



אין תגובות:

הוסף רשומת תגובה