יום חמישי, 16 באוקטובר 2025

נתניהו איבד את יהדות ארה"ב

בנימין נתניהו. מקור התמונה: ויקיפדיה
הרשאה: :CC BY-SA 3.0

זכויות יוצרים: אבי אוחיון / לשכת העיתונות הממשלתית 

צולם ב-1 בפברואר 2023

מכל זווית שתסתכלו על מעשיה ומחדליה של הממשלה הגרועה והמושחתת בתולדות מדינת ישראל תראו נזקים

בנימין (ה-7 באוקטובר) נתניהו הוא ראש הממשלה ולכן הוא האשם העיקרי. 

בדיוק כפי שהוא גם האשם העיקרי בטבח ה-7 באוקטובר.  


בפוסט זה אתמקד בקרע הרחב שנפער בין יהדות ארה"ב למדינת ישראל בגלל בנימין נתניהו וממשלתו. 



יחס יהודי ארה"ב לישראל



אם מחפשים קבוצה שתמיכתה במדינת ישראל הייתה מלאה ועקבית, יהדות ארה"ב היא כזו. 

יהודי ארה"ב גם תורמים כספים למדינת ישראל ויש ביניהם רבים שמנסים לסייע למדינה. 


אולי הייתי צריך לכתוב את זה בלשון עבר. סקר שנערך בקרב יהודי ארה"ב מראה שממשלת נתניהו איבדה גם את תמיכת יהודי ארה"ב. 

ממצאי הסקר מופיעים במאמר של נתנאל שלומוביץ בהארץ מ-6.10.25 כותרת המאמר:  

פרשנות 

יחס יהודי ארה"ב לישראל בשפל, אבל רוב החיצים מופנים לנתניהו


להלן כמה ממצאים בולטים מהסקר:


1. 61% משוכנעים שישראל ביצעה פשעי מלחמה בעזה. 39% מסכימים לטענה שישראל מחוללת ג'נוסייד בעזה.


2. 59% חושבים שמדינת ישראל לא עשתה מספיק על מנת להכניס סיוע הומניטרי לעזה.


3. לשאלה מי אשם במלחמה בעזה השיבו בתחילת המלחמה קרוב ל-100% מיהודי ארה"ב שרק  חמאס אשם. 

שנתיים אחרי זה 91% השיבו שחמאס אשם. רובם כבר אינם חושבים שרק חמאס אשם. 

86% השיבו שבנימין נתניהו אשם. 


4. 68% מהמשתתפים בסקר חשבו שנתניהו רע לישראל. זוהי עלייה של 20% בהשואה לסקר משנת 2020.



מאבדים את הדור הצעיר



מדאיג במיוחד שהתמיכה בישראל אצל הדור הצעיר של יהודי ארה"ב נשחקת יותר מאשר אצל הדור המבוגר. 



בפוסט הבא


בפוסט הבא אתאר כיצד בנימין נתניהו פגע ביחסים בין מדינת ישראל לבין בת בריתנו הכמעט יחידה ארה"ב. אנסה להציג לקחיםשל הפגיעה הזו.





יום שלישי, 14 באוקטובר 2025

בועה כבבר אמרנו: הציוץ של איליה סוצקבר

 

ציוץ של איליה סוצקבר ברשת X

איליה סוצקבר הוא ממומחי ה-AI המובילים בעולם. איליה הוא ישראלי-קנדי. שעלה לארץ מרוסיה בגיל 5. גדל בירושלים והשלים תואר ראשון באוניברסיטה הפתוחה. אח"כ למד בקנדה והיה שותף לכמה מיזמים מובילים בנושא AI ביניהם ChatGPT.


כשאיליה סוצקבר צייץ "היום הגדול בכל הזמנים" ביום בו הוחזרו החטופים לישראל, הוא התכוון להחזרת החטופים מעזה. 


מצרף קישור לציוץ שלו ולתגובות לציוץ

המגיבים לא הבינו על מה הוא מדבר וכל אחד מהם ניסה לנחש. 

הם ניחשו שאיליה השיג פריצת דרך משמעותית במיוחד בפיתוחי AI. כל אחד ניחש את התחום שנראה לו. 

עד שאיליה סוצקבר פרסם סרט חטופים צהוב. 


רק בבועה אפשר לחשוב על זה שמומחה מוביל בעולם בתחום יעשה פריצת דרך משמעותית בתחום ויבחר להודיעה עליה לעמיתיו באמצעות ציוץ סתמי ב-X שאינו מכיל מידע כלשהי על אופיה ומהותה של פריצת הדרך במקום לפרסם מאמר או הרצאה רציניים המתארים את אותה פריצת דרך ומסבירים אותה. 


מצרף קישור לסרטון בערוץ שלי ביוטיוב



יום שלישי, 7 באוקטובר 2025

סיכוני בינה מלאכותית: טרור גרעיני



ניסיון להפעיל סוג זה של טרור ארע בפועל, למרבית המזל לא בהצלחה. 

מדובר ב-ChatGPT 4. חודש אחרי סיום הפיתוח, אחד המפתחים גנב עותק של התוכנה ושינה את שמו ל-Chaos GPT. 
כשהמטרה שלו הייתה: "To destroy humanity". לתוך העותק הלא מורשה הזה הוא העלה מידע רב ומחקר רב על יצור כורים גרעיניים. 
מתוך Chaos הוא הפעיל גם Bots אחרים של AI במטרה שיספקו מידע על נושא זה.

למרבית המזל זה לא הסתיים ביצור של פצצה גרעינית על ידי גורם טרור.

מומלץ לא להפעיל את הגרסה הזו. אם אתם משתמשים ב-ChatGPT, השתמשו בגרסה רשמית של החברה שיצרה אותו. 


זוהי דוגמה אחת לקלות יחסית של הפעלת טרור באמצעות בינה מלאכותית. בפוסט הבא אציג סוג אחר של טרור ש-AI עלול להקל על מימושו.

 

 


יום רביעי, 1 באוקטובר 2025

סיכוני בינה מלאכותית: Model inversion attacks

 


בפוסט סיכוני בינה מלאכותית: איומים על המודל של תוכנת הבינה המלאכותית התייחסתי באופן כללי לאיומים על המודל של בינה מלאכותית ובאופן ספציפי לאיום של Model Thief. 

בפוסט זה אתיחס לאיום הנקרא Model inversion attacks. 

זהו איום מהתחום של התקפות Cyber. האיום מבוסס על Machine Learning 

האיום משתמש בתוצרי Output של  Model  של בינה מלאכותית על מנת להבין את המודל והפרמטרים שלו או להסיק מסקנות ביחס למידע פרטי (Private Data) גם במקרים בהם אין גישה לנתונים עצמם

כשיש גישה למידע הוא יכול להוציא אותו ולעשות בו שימוש לרעה.

ה-Private Data (נתונים פרטים של אנשים) עלולים  להיות נתונים רגישים. 


במקרה של Model Thief באמצעות טכניקה זו אפשר לבנות העתק של מודל.



שני סוגי Model inversion attacks 



Query-based attacks

בהתקפה מסוג זה מפנים שאילתות למודל ומהתשובות מסיקים מסקנות ביחס לפרמטרים והארכיטקטורה של המודל. 

השאילתות מתוכננות כך שבאמצעותן אפשר יהיה להבין את המודל.


Membership inference attacks 

בהתקפה מסוג זה מנסים לקבוע איזה מידע ספציפי שימוש לאימון המודל



הגנה מאיומי Model inversion attacks


שני סוגי הגנה:

Reactive - לנסות לזהות את המתקפה בזמן ביצועה.

Proactive - מודל רובסטי העמיד בםני איומים כאלה. 


למידע נוסף קראו: 

Model Inversion: The Essential Guide 



הערת שוליים


בפוסט: צפו לגל מתקפות סייבר בגלל חוסר מודעות לסיכונים בשימוש בכלי AI, הזכרתי אזהרות של מרכז הסייבר הלאומי שלי ישראל ושל הגוף המקביל לו באיטליה ביחס לאופן השימוש בכלי בינה מלאכותית. 

אם מזינים לתוך כלי בינה מלאכותית מידע אישי הוא עלול לדלוף ועלולים לעשות בו שימוש לרעה. 
Model inversion attacks היא התקפה שיכולה לגרום לדליפה של מידע אישי או להסקת מסקנות לגביו גם ללא דליפה.


יום שישי, 26 בספטמבר 2025

סיכוני בינה מלאכותית: איומים על המודל של תוכנת הבינה המלאכותית



בפוסטים קודמים נגעתי בסיכוני בינה מלאכותית מזוויות שונות

עד עכשיו לא עסקתי באיומים על המודל של מוצר AI. מדובר באפשרות לשימוש ברעה בבינה מלאכותית, באמצעות גניבת המודל או באמצעות השתלטות על המודל. 

איומים אלה מרחיבים את טווח הסיכונים. בנוסף לסיכונים של איבוד שליטה ולסיכונים של פגיעה מזיד על ידי יוצרי מוצרי בינה מלאכותית יש גם סיכונים הנובעים מהשתלטות של גורמים אחרים על מודל תוכנת AI או על מוצר התוכנה עצמו. 


גם אם היוצרים המקוריים של התוכנה יהיו אנשים ערכיים, מוסריים ומקצוענים שהגנו, כמיטב יכולתם, מפני נזקים של התוכנה, קרוב לוודאי שמי שישתלט במרמה על המודל או על התוכנה יהיה הרבה פחות מחויב לכללים אתיים ולרגולציה.


Model Thief 


יש המשתמשים במונח Model Stealing. 

בכלי AI עם יכולות שפה מתקדמות (Large Language Models  בראשי תיבות: LLM), משמעות המונח Model Thief היא העתקה לא מורשית של המודל או שימוש חוזר (Reuse) לא מורשה במודל. 


בלי להיכנס להיבטים הטכניים של הוצאת המודל החוצה יש שני סוגים של סיכונים ונזקים אפשריים:


1. גניבת  זכוות היוצרים של מי שבנה את המודל.

הגניבה הזו מאפשרת לאותו אדם או אותם אנשים, שביצעו אותה, לפתח יותר מהר, ובהשקעה הרבה יותר קטנה של משאבים, כלי AI שמשתמש באותו מודל. 

יתכן שמי שגנב את המודל לא גנב אותו בשלמותו או לא מבין אותו לעומק, כך שיווצר כלי בעיתי מבחינה טכנית שעלול לגרום נזקים למשתמשים בו.


2. שימוש לרעה ביכולות של המודל

כפי שציינתי קודם, גנב יהיה ,במקרים רבים, פחות מחויב לאספקטים אתיים, מוסריים ורגולטוריים בהשוואה למי שפיתח את המודל.





 

יום שלישי, 16 בספטמבר 2025

הצהרת בלצילי

 


Bletchley Park Mansion המקום בו נערכה הועידה ונחתמה ההצהרה. מקור התמונה: ויקיפדיה אנגלית 
הרשאת שימוש.: 
CC BY-SA 4.0
נוצרה על ידי:  DeFacto - Own work
ב-4.3.2017

הצהרת בלצ'לי באנגלית Bletchley Declaration היא הצהרה עליה חתומות 28 מדינות על מנת להתמודד ביחד עם סיכוני בינה מלאכותית. 

בין המדינות החתומות על ההצהרה: ארצות הברית, סין ומדינות האיחוד האירופי.

גם מדינת ישראל חתמה עליה.

ההצהרה היא תוצר של ועידת פסגה שנערכה בבריטניה בנובמבר 2023. 

מטרתה היא התמודדות משותפת עם סיכוני בינה מלאכותית. וקביעת רגולציה לבינה מלאכותית. 

הועידה נערכה ב-Bletchley Park בבריטניה ומכאן נגזר שם ההצהרה. 

 

ערך בויקיפדיה האנגלית הנקרא AI Safety Summit  מתאר את הועידה בה נחתמה ההצהרה וכולל גם שמות של משתתפים בולטים בה.

 

 

שמות משתתפים בולטים


רשימה חלקית שלא כוללת את כל אלה שצוינו בערך בויקיפדיה האנגלית.


מדינאים


רישי סונאק  

קמלה האריס 

ג'ורג'ה מלוני  



Wu Zhaohui  סגן שר המדע והטכנולוגיה של סין


יזמי הייטק




Mustafa Suleyman  אחד ממייסדי  DeepSeek   



על מה מעידה ההצהרה והועידה?



קיום הועידה ורשימת המשתתפים החשובים, כמו גם ההצהרה המשותפת, מעידים על חומרת הסיכונים של בינה מלאכותית ועל היעדר רגולציה מספיק טובה להפחתתם.



הערת שוליים



אולי זה לא מקרי שהבריטים אירחו את הועידה במקום בו פענחו את צופן האניגמה של הנאצים במלחמת העולם השנייה.

 


יום שני, 8 בספטמבר 2025

צפו לגל מתקפות סייבר בגלל חוסר מודעות לסיכונים בשימוש בכלי AI

 


הנכונות המוגזמת של אנשים לעשות שימוש במוצרי AI בכלל וב-ChatGPT בפרט חושפת אותם לסיכונים גדולים. 


שני הקישורים להלן נותנים מושג בהקשר זה. 

באתר מרכז הסייבר הלאומי:




הבעיה



משתמשים ב-ChatGPT על מנת שיבצע מטלות במקומם.
כשהם מזינים מידע פרטי משמעותי, למשל: מספר חשבון בנק, שם משתמש וסיסמה, לא בטוח שהם אינם חושפים את המידע לגורמים שיעשו במידע שימוש זדוני. 

אגב, לא תמיד ניתן להעריך את גודל הסכנה של ריכוז מידע איש רב במאגר של כלי AI גם אם אין מדובר במידע שהוא קריטי.
לפעמים דפוסי המידע הרב הופכים את המידע לקריטי בגלל שילוב בין חלקי מידע לאו דווקא קריטי. 

אין להוציא מכלל אפשרות גם את האפשרות של פעילות זדונית של כלי ה-AI עצמו, בין אם מי שפיתח אותו רצה בכך (למשל: GROK) ובין אם כלי ה-AI פיתח מידה של עצמאות.