יום שישי, 26 בספטמבר 2025

סיכוני בינה מלאכותית: איומים על המודל של תוכנת הבינה המלאכותית



בפוסטים קודמים נגעתי בסיכוני בינה מלאכותית מזוויות שונות

עד עכשיו לא עסקתי באיומים על המודל של מוצר AI. מדובר באפשרות לשימוש ברעה בבינה מלאכותית, באמצעות גניבת המודל או באמצעות השתלטות על המודל. 

איומים אלה מרחיבים את טווח הסיכונים. בנוסף לסיכונים של איבוד שליטה ולסיכונים של פגיעה מזיד על ידי יוצרי מוצרי בינה מלאכותית יש גם סיכונים הנובעים מהשתלטות של גורמים אחרים על מודל תוכנת AI או על מוצר התוכנה עצמו. 


גם אם היוצרים המקוריים של התוכנה יהיו אנשים ערכיים, מוסריים ומקצוענים שהגנו, כמיטב יכולתם, מפני נזקים של התוכנה, קרוב לוודאי שמי שישתלט במרמה על המודל או על התוכנה יהיה הרבה פחות מחויב לכללים אתיים ולרגולציה.


Model Thief 


יש המשתמשים במונח Model Stealing. 

בכלי AI עם יכולות שפה מתקדמות (Large Language Models  בראשי תיבות: LLM), משמעות המונח Model Thief היא העתקה לא מורשית של המודל או שימוש חוזר (Reuse) לא מורשה במודל. 


בלי להיכנס להיבטים הטכניים של הוצאת המודל החוצה יש שני סוגים של סיכונים ונזקים אפשריים:


1. גניבת  זכוות היוצרים של מי שבנה את המודל.

הגניבה הזו מאפשרת לאותו אדם או אותם אנשים, שביצעו אותה, לפתח יותר מהר, ובהשקעה הרבה יותר קטנה של משאבים, כלי AI שמשתמש באותו מודל. 

יתכן שמי שגנב את המודל לא גנב אותו בשלמותו או לא מבין אותו לעומק, כך שיווצר כלי בעיתי מבחינה טכנית שעלול לגרום נזקים למשתמשים בו.


2. שימוש לרעה ביכולות של המודל

כפי שציינתי קודם, גנב יהיה ,במקרים רבים, פחות מחויב לאספקטים אתיים, מוסריים ורגולטוריים בהשוואה למי שפיתח את המודל.





 

יום שלישי, 16 בספטמבר 2025

הצהרת בלצילי

 


Bletchley Park Mansion המקום בו נערכה הועידה ונחתמה ההצהרה. מקור התמונה: ויקיפדיה אנגלית 
הרשאת שימוש.: 
CC BY-SA 4.0
נוצרה על ידי:  DeFacto - Own work
ב-4.3.2017

הצהרת בלצ'לי באנגלית Bletchley Declaration היא הצהרה עליה חתומות 28 מדינות על מנת להתמודד ביחד עם סיכוני בינה מלאכותית. 

בין המדינות החתומות על ההצהרה: ארצות הברית, סין ומדינות האיחוד האירופי.

גם מדינת ישראל חתמה עליה.

ההצהרה היא תוצר של ועידת פסגה שנערכה בבריטניה בנובמבר 2023. 

מטרתה היא התמודדות משותפת עם סיכוני בינה מלאכותית. וקביעת רגולציה לבינה מלאכותית. 

הועידה נערכה ב-Bletchley Park בבריטניה ומכאן נגזר שם ההצהרה. 

 

ערך בויקיפדיה האנגלית הנקרא AI Safety Summit  מתאר את הועידה בה נחתמה ההצהרה וכולל גם שמות של משתתפים בולטים בה.

 

 

שמות משתתפים בולטים


רשימה חלקית שלא כוללת את כל אלה שצוינו בערך בויקיפדיה האנגלית.


מדינאים


רישי סונאק  

קמלה האריס 

ג'ורג'ה מלוני  



Wu Zhaohui  סגן שר המדע והטכנולוגיה של סין


יזמי הייטק




Mustafa Suleyman  אחד ממייסדי  DeepSeek   



על מה מעידה ההצהרה והועידה?



קיום הועידה ורשימת המשתתפים החשובים, כמו גם ההצהרה המשותפת, מעידים על חומרת הסיכונים של בינה מלאכותית ועל היעדר רגולציה מספיק טובה להפחתתם.



הערת שוליים



אולי זה לא מקרי שהבריטים אירחו את הועידה במקום בו פענחו את צופן האניגמה של הנאצים במלחמת העולם השנייה.

 


יום שני, 8 בספטמבר 2025

צפו לגל מתקפות סייבר בגלל חוסר מודעות לסיכונים בשימוש בכלי AI

 


הנכונות המוגזמת של אנשים לעשות שימוש במוצרי AI בכלל וב-ChatGPT בפרט חושפת אותם לסיכונים גדולים. 


שני הקישורים להלן נותנים מושג בהקשר זה. 

באתר מרכז הסייבר הלאומי:




הבעיה



משתמשים ב-ChatGPT על מנת שיבצע מטלות במקומם.
כשהם מזינים מידע פרטי משמעותי, למשל: מספר חשבון בנק, שם משתמש וסיסמה, לא בטוח שהם אינם חושפים את המידע לגורמים שיעשו במידע שימוש זדוני. 

אגב, לא תמיד ניתן להעריך את גודל הסכנה של ריכוז מידע איש רב במאגר של כלי AI גם אם אין מדובר במידע שהוא קריטי.
לפעמים דפוסי המידע הרב הופכים את המידע לקריטי בגלל שילוב בין חלקי מידע לאו דווקא קריטי. 

אין להוציא מכלל אפשרות גם את האפשרות של פעילות זדונית של כלי ה-AI עצמו, בין אם מי שפיתח אותו רצה בכך (למשל: GROK) ובין אם כלי ה-AI פיתח מידה של עצמאות. 

יום שישי, 5 בספטמבר 2025

מספר חסוי המתחזה מהתיכון - הטרדות ברשת נזק גדול יותר ממה שאפשר לתאר



אתמול (4.9.25) צפיתי בסרט דוקומנטרי בנטפליקס. שם הסרט: מספר חסוי המתחזה מהתיכון

מהסרט הזה אפשר ללמוד הרבה דברים על הרבה נושאים: כלכלת המשפחה, יחסים במשפחה ובקהילה, פסיכולוגיה, אבל בעיקר על סיכונים ברשת

מסתבר שהסיכונים עלולים להיות הרבה יותר גדולים ממה שאדם ממוצע חושב. 


כשאני כותב על הסרט הזה, שאני מאוד ממליץ לצפות בו, אני הולך על חבל דק. 

אני לא רוצה לעשות Spoiler ולגלות מי היה המטריד? 
כתוצאה מכך יש היבטים מרתקים וחשובים שאינני יכול להתיחס אליהם.



תקציר האירועים 



תלמיד ותלמידה באותה כיתה יוצרים קשר זוגי שנראה טוב. אהבה ראשונה של שניהם.

מדובר בעיירה קטנה בארצות הברית בה כל אחד מכיר את כל אחד. 

לבני הנוער אין בה הרבה מה לעשות בזמן הפנוי.

עיסוקי פנאי עיקריים הם ספורט ובעיקר פעילות ברשתות חברתיות באמצעות הטלפונים. 


הלקח הראשון, שתקף לכולנו ולא רק בעיירות קטנות בארה"ב, הוא שאנחנו מאבדים את הקשב בגלל שימוש יתר ברשתות חברתיות


בשלב מסוים הנער והנערה התחילו לקבל הודעות מאימות ממספר לא מזוהה.


הנערה קיבלה הודעות שהחבר שלה לא מעוניין בקשר איתה והוא רוצה קשר עם שולחת ההודעה. 

הנער קיבל הודעות שהציעו לו לנתק את הקשר עם החברה. 

כמות ההודעות ורמת האיום הסלימו. זה הגיע להצעה לנערה להתאבד. 

הנער והנערה לא עמדו בלחץ והקשר ביניהם נותק. זה לא סיים את ההטרדות. 


עם ההסלמה נעשתה פנייה למשטרה המקומית, שהתחילה לחקור. 

הופנו חשדות נגד בנות אחרות באותה כיתה, שנחקרו במשטרה. 

בקהילה קטנה היו כאלה שהיו בטוחים בשלב כזה או אחר באשמתה של נערה מסוימת והשמועה עברה בקהילה כולה. 

כשלא נמצאו ראיות, קרה תהליך דומה של האשמת נערה אחרת. 

ההטרדות נמשכו יותר משנתיים. כולל הטרדה של אם של נערה מעיירה אחרת שהנער הכיר. 

הוא מיד ניתק את הקשר בגלל ההטרדה. 


רק כשהמשטרה המקומית העבירה את החקירה למחלקת הסייבר של ה-CIA הייתה פריצת דרך ונמצא המטריד המפתיע. 


נזקים


גם לנער וגם לנערה נגרמו נזקים ברמה הפסיכולוגית שילוו אותם כל החיים. 

גם לנערות שנחשדו על לא עוול בכפן נגרמו נזקים מתמשכים מבחינת אמון באנשים ואמון בקהילה. 


כמובן שנגרמו נזקים גם להורי התלמיד, להורי התלמידה ולהורי התלמידות שנחשדו.



לקחים בהקשר של סיכוני רשת



1. סיכוני פגיעה חברתית והטרדות ברשת עלולים להיות גדולים. במיוחד לילדים ובני נוער

בסרט לא היו התאבדויות של בני נוער, למרות שהיו כאלה שהעלו מחשבות אובדניות. 

במקרים אחרים זה הסתיים בהתאבדויות.  

גם ללא התאבדויות עלולים להיגרם נזקים חברתיים ופסיכולוגיים קשים לבני נוער ולילדים בגלל הטרדות ברשת.


2. צריך מיומנות ומקצועיות בתחום הסייבר על מנת לטפל באירועי סיכון.

לשריף המקומי היה הרבה רצון טוב והוא ניסה להתמודד עם הבעיה כמיטב יכולתו. 

לא הייתה לו מיומנות טכנית ולכן לא היה לו סיכוי לפתור את הבעיה. 

רק אחרי שנתיים העביר את הטיפול למחלקת הסייבר של ה-FBI. 

הם פתרו את זה מהר.

א. הם זיהו את המקור של ההודעות שקיבלו הנער והנערה. 

ב. המקור היה אתר שבו ניתן להסתיר את זהות שולח ההודעה. 

ג. הם הוציאו צו משפטי המחייב את החברה לתת להם את כתובת ה-IP ממנה נשלחו ההודעות.

ד. מסתבר שאלה שתי כתובות של ספק האינטרנט הגדול Verizon

ה. צו בית משפט חייב את Verizon לתת לחוקרי ה-FBI את שמות המשתמשים שהשתמשו בכתובות אלה. 

הם מצאו משתמש שהשתמש באותן כתובות בכל פעם שנשלחה הודעה לנער או לנערה. 

כך התגלתה זהות השולח. השולח נשבר בחקירה וסיפר את כל הידוע לו. 



הזווית של כלכלת המשפחה



למצבים של פגיעה באנשים ברשת יש  גם השלכות כלכליות.

כך למשל, בני נוער שנפגעים עלולים להזדקק לטיפול פסיכולוגי, שיש לו עלות כלכלית למשפחה. 


במקרה קיצוני, כמו המקרה הזה, עלולים בני נוער שנפגען להתקשות לצור קשר עם אנשים אחרים,  במסגרת של הקמת משפחה וגם במסגרת של עבודה משותפת, ולאבד את האמון בבני אדם. 

לתוצאה כזו עלולות להיות השלכות מעשיות על יכולתם ללמוד, לעבוד ולשתף פעולה עם אחרים. 

להשלכות אלה עלולה להיות גם השפעה כלכלית מצטברת ארוכת שנים. 


איך מנהלים כלכלת משפחה?


דפוסי ההתנהלות הכלכלית של אחת המשפחות שהופיעו בסרט היו גרועים במיוחד. 

הבעיות המהותיות:


1. רק אחד מבני המשפחה ניהל את הנושאים הכלכליים 

כשרק אחד מבני המשפחה מנהל את הנושאים הפיננסיים ואינו משתף את בן-הזוג (במקרה חריג זה) או את בת הזוג (במקרים רבים) קל יותר לבצע טעויות. 


2. הסתרת מידע על בעיות כלכליות

בני המשפחה האחרים שלא שותפו בהחלטות ולא שותפו במידע ירגישו מרומים כשהוסתרו בעיות כלכליות. 

במקרה הזה הוסתרו פיטורים והפסקת עבודה במשך פרק זמן ארוך. 

התוצאה: משבר כלכלי שחייב החלפת בית מגורים. 



הזווית שלא אעסוק בה בפוסט זה



הזווית הפסיכולוגית היא משמעותית. איני מתכוון לגעת בה בפוסט זה. 

גם מהסיבה שלהערכתי לא נכון לעשות את זה על במה זו וגם משום שאיני רוצה לעשת Spoiler ולשתף תכנים מהסרט. 


השורה התחתונה


טפלו מיד במצבים של איומים והטרדות ברשת. במיוחד כאשר מדובר בילדים או נערים המוטרדים. 

ההמלצה שלי היא לערב מיד מומחים מוקדם ככל האפשר ולא לתת לכאלה שאינם מומחים לנסות לפתור את הבעיה.


הערת שוליים


בפוסט: המכונים "קייטי היגינס" מכים שנית - הפעם אני כבר לא יכול לפתור את הבעיה תיארתי מקרה של בחור צעיר שפנה אלי לעזרה באיחור. זה עלה לו הרבה כסף.




יום שלישי, 2 בספטמבר 2025

בינה מלאכותית בבתי ספר ובאוניברסיטאות: האם יכולת חשיבה ביקורתית נפגעת?

 

תחילת שנת הלימודים ב-1.9 היא מועד מתאים לדון בסיכוני בינה מלאכותית לתלמידים ולסטודנטים. 

כבר היום השימוש בכלי בינה מלאכותית כמכיני עבודות במקום תלמידים או סטודנטים הוא רבהוא צפוי להתרחב עוד יותר. 

מאמר שפורסם בעיתון  European Research Studies Journal מתאר תוצאות סקר שנעשה על שימוש בכלי AI במסגרת לימודים. 


קישור למאמר: 
   
משתתפי הסקר היו סטודנטים והם העידו על אופני והשפעות השימוש בבינה מלאכותית על תפקודם בלימודים. 

שאלת המחקר העיקרית הייתה השאלה בכותרת: האם יכולת חשיבה ביקורתית נפגעת?   
כמעט מחצית ממשתפי הסקר חשבו שיכולות להיות לשימוש השלכות של פגיעה בחשיבה ביקורתית. 

חשוב לזכור שזה סקר שבו המשתתפים מעידים על עצמם. סביר להניח שתהיה להם הטיה קוגניטיבית של אופטימיות. במקרה זה היא תפעל לכיוון של המעטת הפגיעה בחשיבה הביקורתית.