google.com, pub-1121470591265953, DIRECT, f08c47fec0942fa0

יום שבת, 11 באפריל 2026

צ'רצ'יל, רוזוולט? במקרה הטוב ניקסון

 

זו אינה הפעם הראשונה שבהבל פה משווה את עצמו בנימין (ה-7 באוקטובר) נתניהו למנהיגים דגולים כמו וינסטון צ'רצ'יל ותיאודור רוזוולט. קצת צניעות לא תזיק לו. 


ב-25 ביוני 2025 התייחסתי לזה בקצרה בפוסט סיכוני אופוריה

הפוסט עסק בסיבוב הראשון של התקפות הטילים האיראנים. 

כשרואים כיצד כשל הדרג המדיני של מדינת ישראל, בעיקר נתניהו, בסיבוב הנוכחי במלחמה עם איראן אפשר להגיד שקראתי לא רע את התמונה כבר אז. 



השאלה המעניינת היא: מדוע משווה את עצמו נתניהו למנהיגים דגולים במדינות אחרות? 


לפני שאדון בשאלה הזו אנסה למצב אותו עם אנשים דומים לו בהיסטוריה ולהסביר מדוע אין בסיס לטענה של נתניהו שהוא בליגה של צ'רצ'יל או רוזוולט? 



מדוע לא צ'רצ'יל או רוזוולט?



וינסטון צ'רצ'יל כיהן כראש ממשלת בריטניה בשנים 1940-1945. אחרי שקודמו בתפקיד נוויל צ'מברליין הוביל קו פייסני כלפי הנאצים, צ'רצ'יל הוביל באומץ ובנחישות את המלחמה של בריטניה בנאצים במלחמת העולם השנייה. 

לא דומה נתניהו לצ'רצ'יל. נתניהו אחראי לאסון הגדול ביותר בתולדות מדינת ישראל ולכישלונות של הדרג המדיני במלחמה מאז ה-7 באוקטובר 2023 ועד היום. רבים חושדים בו שהוא מאריך במתכוון את המלחמות משיקולים אישיים ואין לו אסטרטגיית יציאה ממלחמות על מנת לממש את ההישגים הצבאיים של צה"ל.   


תאודור רוזוולט בגיל 42 היה הנשיא הצעיר ביותר בתולדות ארה"ב עד למינויו לתפקיד כשהחליף נשיא שנרצח בשנת 1901 וכיהן שתי קדנציות בתפקיד נשיא ארה"ב. התחיל בכריית תעלת פנמה וזכה בפרס נובל לשלום על תרומתו לסיום מלחמת רוסיה-יפן. 

היה נשיא ליברלי שקידם זכויות אדם. 

נתניהו פועל הפוך מרוזוולט. מקדם מלחמות. פוגע בזכויות אדם והופך את ישראל לדמוקרטיה פורמלית בלבד. 

ממנה אנשים קיצוניים ואנשים לא ראויים לתפקידים בממשלתו. די אם נזכיר את מינוייהם של השרים בן-גביר, סמוטריץ, יריב לוין ומינוי ישראל כץ לשר ביטחון.



מי כן?



ריצ'רד ניקסון זכור כנשיא ארה"ב היחיד שהתפטר מתפקידו. ניקסון התפטר בעקבות פרשת ווטרגייט.  

פרשיות קטאר גייט בלשכת נתניהו הן סוג של מקבילה  ישראלית לפרשת ווטרגייט. פרשת ווטרגייט כללה פעולות בלתי חוקיות נגד אנשי המפלגה הדמוקרטית שמחו נגד הימשכות המלחמה בוייטנאם. 


ספק גדול, האם חלק מפעולות המשטרה ברוח השר בן-גביר, נגד מפגינים בישראל אינן חורגות מהחוק. גם נתניהו ומקורבים שלו פועלים להגבלת הזכות הדמוקרטית להפגין. 


ניקסון עולה על נתניהו. הוא לפחות לקח אחריות והתפטר.

נתניהו לא התפטר מתפקידו כשהוחלט להעמידו למשפט בתיקי האלפים. גם לאחר שבקדנציה שלו התרחש האסון הגדול ביותר במדינת ישראל ב-7 באוקטובר 2023 וגם לא לאחר שועדת חקירה ממלכתית מצאה אותו אחראי לאסון הר מירון



מי שיש לו קווים משותפים עם נתניהו הוא ברני מיידוף. מיידוף רימה הרבה אנשים במשך הרבה שנים. 

נתניהו יצר במדינת ישראל את תרבות השקר. מנכ"ל של חברת דירוג אשראי אמריקאית גדולה אמר עליו שמעולם לא רימה אותו מנהיג של מדינה כפי שעשה נתניהו. 



מדוע משווה נתניהו את עצמו למנהיגים דגולים?



הרעיון שמנסה נתניהו לקדם הוא שאם הוא כמו מנהיגים דגולים אולי הוא לא צריך להתפטר, למרות כישלונתיו הרבים. 

קודם הוא משכנע את עצמו ואת המעגל הקרוב שלו באמצעות מיתוגו כצ'רצ'יל ישראלי או  רוזוולט ישראלי. אחר כך הוא ינסה להרחיב את מעגל המשוכנעים בטענה הכוזבת .

זהו חלק מאסטרטגיית הבריחה מאחריות והעדפת אינטרסים אישיים. 





 


בינה מלאכותית: למידת חיזוק באנצעות משוב אנושי

 


בפוסט הזיות: כשל לוגי מהותי ב-Chatbots מבוססי מודל שפה גדול נגעתי בהזיות בינה מלאכותית ובניסיון לצמצם אותן באמצעות אימון. 

המסקנה הייתה שאימון של Chat Bot באמצעות כמויות גדולות אינו מצליח לצמצם באופן משמעותי את כמות ההזיות באופן אפקטיבי בגלל איכות המידע המשמש לאימון. 


על מנת לנסות להקטין את כמות ההזיות התווספה טכניקה נוספת לאימון ה-Chat Bot

כמו בפוסט הקודם גם בפוסט זה אתמקד ב-ChatGPT, שבו התווסף כלי אימון נוסף הנקרא: RLHF.


 RLHF הם ראשי תיבות של: Reinforcement Learning from Human Feedback. 

בעברית: למידת חיזוק באמצעות היזון חוזר אנושי. 


הרעיון הוא שלאימון באמצעות מידע יתווסף לימוד מפידבק של בני אדם. השילוב של שניהם עשוי להקטין את שיעור ההזיות. 


ברוב המקרים סטטיסטית הוספה של משתנה מנבא נוסף משפרת את הניבוי. 

לא בטוח שזה המצב במקרה זה. 


אם תקראו את הפוסט בינה מלאכותית: השילוב הקטלני של הזיות, רצון לרצות את המשתמש ומנגנון למידה באמצעות תיקוף אנושי, אולי תקבלו רמז לכך שמקרה זה עלול להיות חריג. 



סימני שאלה ביחס לתקפות משוב אנושי



אם מושיבים אדם מול מערכת התוכנה והוא נותן פידבק, סביר להניח שיש לו הטיות קוגניטיביות והטיות רגשיות. 


קוראים המעוניינים בכך יכולים לקרוא בבלוג שלי לכלכל בתבונה על מספר רב של הטיות קוגניטיביות.

פשוט חפשו בבלוג "הטיות קוגניטיביות" או "דניאל כהנמן". 

מרבית ההטיות הקוגניטיביות שאני כותב עליהן נכתבו על בסיס קריאה של ספרו של חתן פרס נובל לכלכלה דניאל כהנמן ז"ל "לחשוב מהר לחשוב לאט".


הטיות קוגניטיביות עלולות לפגוע בתוקף ובאמינות של ההיזון החוזר האנושי.

תוסיפו לזה את הנטייה של Chat Bots לרצות משתמשים אנושיים ותקבלו חיזוק מוגבל, אם בכלל. 


דרך אחרת לחיזוק למידה אנושי מזכרת במאמרו של שגיא כהן בעיתון "דה מרקר" שכותרתה למה חברות ה-AI הגדולות רוצות לשלם לכם כדי לרוקן מדיח?


הכתבה מתארת תשלומים של חברות ה-AI לאנשים פשוטים תמורת סרטונים בהם הם מבצעים פעולות יומיומיות. הסרטונים מוזנים כאמצעי חיזוק למידה אנושי. 

על פי הכתבה, המודל הזה אינו חסר בעיות. 

להלן כמה בעיות:


1. בדרך כלל מדובר בתשלומים נמוכים מאוד.

2. אוכלוסיית המסריטים החובבנים המשתתפת בפרויקטים כאלה היא אוכלוסייה ענייה הזקוקה לכסף הזה לפרנסתה.

3. הדרישות הן לסרטונים מושלמים. ללא בעיות וללא הפסקות.

אלה שמכינים אותם לא מקבלים תשלום, אם וכאשר נמצא פגם כלשהו בסרטון.

4. אלה שמכינים אותם עושים לא מעט איטרציות אם וכאשר יש בעיה הכי קטנה שהם מגלים בסרטון.

5. המשתתפים בפרויקט אולי יוחלפו בעתיד על ידי רובוטים של בינה מלאכותית, כך שהם אולי מונעים מעצמם פרנסה עתידית.



השורה התחתונה



קיימים סימני שאלה ביחס לאפקטיביות של למידת חיזוק אנושי בהקטנת ההזיות של תוכנות בינה מלאכותית.



יום חמישי, 9 באפריל 2026

בינה מלאכותית: הצד המנטלי של העובדים

 



כשהייתי מנהל של צוותי מערכות הפעלה ובסיסי נתונים בשנות ה-80 של המאה הקודמת בחננו מוצר תוכנה בתחום שנקרא מפעיל אוטומטי. 

מפעיל אוטומטי היה תוכנה שאפשר לראות בה במידה מסוימת תוכנת בינה מלאכותית. 

היא ביצעה תהליכי עבודה מוגדרים מראש במקום מפעילי מחשב. 


כשהייתי בחדר המחשב במסגרת ניסוי של אחד המוצרים שבדקנו, פגשתי מפעילים מודאגים. 
הם חששו שהתוכנה תחליף אותם והם יאבדו את מקום עבודתם. 


הרגעתי אותם והסברתי להם שהתוכנה לא מחליפה אותם, אלא רק מקלה עליהם על ידי כך שהיא מבצעת במקומם תהליכי תפעול פשוטים ושגרתיים. זה מאפשר להם לעסוק יותר בפיתרון בעיות הדורשות חשיבה.



המאמר מחיר היעילות של AI: מחקר מצא ששימוש רב ב-AI "מטגן את המוח", נכתב על ידי מעיין מנלה בעיתון כלכליסט. 

המאמר מציג את ההשלכות של השימוש הגובר במוצרי AI בארגונים על העובדים ובאופן עקיף גם על הארגון.  הוא מתבסס על מחקר של חוקרים מאוניברסיטת הארווארד וממכון BCG

אחת מההשלכות היא פחדים דומים לפחדים של מפעילי המחשב בשנות ה-80 של המאה הקודמת שהזכרתי בפיסקה הקודמת. 


היום מדובר בפחד הרבה יותר מוחשי שמוצף בתקשורת וברשתות. אנשים רבים חוששים לאבד את מקום עבודתם לבינה המלאכותית.


חלקם מגיבים במתח (Stress) מתמשך. זה כנראה פוגע בתפקוד שלהם בעבודה, אבל לא רק בעבודה. סביר להניח ש-Stress מתמשך פוגע בבריאות. 


למרות שהיום זה יותר מוחשי במקרים רבים זה פחד לא מוצדק. כמו מפעילי המחשב, שהמפעי האוטומטי מבצע במקומם חלק מהמטלות ואם ישלטו בטכנולוגיה שלו יאפשר להם לבצע עבודות מתוחכמות יותר ולא יחליף אותם, כך עשוי לקרות גם לחלק לא קטן מהעובדים החוששים מהבינה המלאכותית. היא תשלים את עבודתם ותקל עליה אבל לא תחליף אותם.



ללמוד בינה מלאכותית או להילחם בה?



זו שאלה העומדת לפיתחם של עובדים בארגונים ובתפקידים החוששים מהחלפתם על ידי בינה מלאכותית. 

הדילמה הזו לא חדשה. כיועץ מחשוב שייעץ לארגונים שניסו לעבור לארכיטקטורות ולטכנולוגיות מתקדמות יותר נתקלתי בה פעמים רבות. 


השורה התחתונה היא שאי אפשר לעצור את ההתקדמות הטכנולוגית באמצעות התנגדות של עובדים בארגון. 


אפשר לדחות אותה בכמה שנים כשלפעמים הארגון עלול לשלם מחיר גבוה על הפיגור המקצועי שלו.


בדרך כלל העובדים בארגון התחלקו לשלוש קבוצות:


1. עובדים ברמה גבוהה שרוצים ומסוגלים לשנות תפיסה

הם תומכים במעבר לטכנולוגיות חדשות ומוכנים ומסוגלים לאמץ אותן. 

הם גם חושבים על היתרונות שזה יקנה להם בהמשך הקריירה שלהם. אולי גם במקומות עבודה אחרים.

לא במפתיע חלק גדול מהם צעירים. לצעירים יש יותר מה להרוויח ופחות מה להפסיד 


2. עובדים שאינם רצים בשינוי ומפחדים ממנו

לרוב אלה עובדים ותיקים, המכירים היטב את המערכות המחשוביות והארגוניות ואת התרבות הארגונית. ההיכרות הטובה שלהם והניסיון הרב שלהם עם הטכנולוגיות הישנות מקנה להם יתרון. 

הם עלולים לאבד את היתרון במעבר לטכנולוגיה חדשה ולכן הם עלולים להתנגד לשינוי.

לפעמים יש להם כוח והשפעה רבה בארגון. עלולים להכשיל פרויקט של מעבר לתפיסה חדשה או טכנולוגיה חדשה.


3. הבינוניים הניטרלים

לא תומכים ולא מתנגדים. יהיה להם קשה לשמור על היתרונות שהיו להם בסביבה ההטכנולוגית הישנה. 

בלית ברירה יבצעו את השינוי התפיסתי לא תמיד באופן מלא.



"AI Brain Fry"



אין ספק שבינה מלאכותית היא מהפכה בסדר גודל אחר. אולי ברת השוואה למהפכה התעשייתית ולמהפכת האינטרנט


הבעיה הייחודית לבינה מלאכותית שעלתה במחקר היא, שגם אלה השייכים לקבוצה השנייה בפיסקה הקודמת, אלה שרוצים ומוכנים לאמץ את התפיסה החדשה נמצאים במצוקה רגשית וקוגניטיבית קשה ולכן גם הם סובלים מ-Stress. 

במאמר כינו את זה "טיגון מוחי". 

כתוצאה מכך התפקוד שלהם אינו טוב והם מבצעים הרבה טעויות.


הציפייה הייתה שמוצרי ה-AI יבצעו את העבודה והעובדים רק יצטרכו לנהל ולתאם אותה. זה יותיר לעובדים זמן לחשיבה על פיתרון בעיות אסטרטגיות ובעיות מורכבות. 


המציאות היא שהעובדים:

1. צריכים לנהל הרבה סוכנים של מוצרי AI.

2. צריכים ללמוד הרבה מוצרים ולהשתמש בהם.

3. צריכים לתקן הרבה באגים שנוצרו באמצעות כתיבת קוד באמצעות  Claude Code וכלים אחרים. 


אין מתודולוגיה וכלים שיעזרו להם לארגן את המטלות  של עבודה עם מוצרי הבינה המלאכותית. 

מומחה שרואיין במאמר טען שעובד הנדרש לעבוד עם יותר משלושה מוצרי בינה מללאכותית במקביל אינו מסוגל לעשות זאת. 








יום רביעי, 8 באפריל 2026

הזיות: כשל לוגי מהותי ב-Chatbots מבוססי מודל שפה גדול

 



בבלוג שלי העוסק במחשבים ובטכנולוגיית המידע התייחסתי לכשל לוגי במודל של מוצרי AI בפוסט: 

 Vendors Survival: Will Open AI Survive Until 2036? 



הכשל מתייחס למוצרים מבוססי Large Language Models כמו ChatGPT. 
בפוסט אתייחס ל-ChatGPT. גם מוצרים מתחרים משתמשים במנגנונים דומים. 

המודל הוא מודל המבוסס על הסתברות בייסיאנית. יש מצבים הנקראים הזיות בהם מוצר ה-AI מבין לא נכון את כוונת השואל. התוצאה היא הזיות, כלומר: תשובות מנותקות משאלת השואל.
.  
הזיות הן סיכון גדול משום שששואל השאלה מקבל מידע שגוי ועלול להתייחס אליו כאל מידע מהימן. 

מי שמשתמש בטלפון חכם במתקן איות אוטומטי משתמש בכלי הפועל על פי מודל הסתברותי דומה. גם שם יש הזיות. 
במקרה של מתקן האיות הוא מנסה לתקן מילה עם טעות הקלדה ומתקן אותה למילה עם משמעות שונה מהמילה אליה התכוון המקליד. 

לי הספיקו שתי הזיות נוראות על מנת להפסיק להשתמש במתקן האיות בטלפון. 

ההבדל בין תיקון אוטומטי של איות לבין תוכנת בינה מלאכותית הוא במורכבות. תיקון איות הוא מודל פשוט. גם ניסיונות לצמצם את כמות ההזיות פשוטים יחסית.
Chatbot של בינה מלאכותית הרבה יותר מורכב.




אימון של ה-Chatbot לצורך הקטנת תדירות הזיות



לא ניתן למנוע לחלוטין הזיות משום שזהו כשל מובנה במנגנון סטטיסטי בייסיאני. 
באמצעות אימון ה-Chatbot מנסים לצמצם את היקף ההזיות. 

האימון מתבצע על כמויות גדולות של מידע. במהדורות הראשונות של ChatGPT הוכן מידע שהמפתחים חשבו שהוא ישמש את מוצר הבינה המלאכותית לצורך אימון. 
בכל מהדורה חדשה הוגדלה כמות המידע לאימון. 

במהדורות החדשות החברה הפסיקה לפרסם מאפיינים של המידע שמשמש לאימון. 
הפסקת הפרסום נובעת מזה שאימון נעשה על מידע אינטרנטי. 


אתגרי מידע אינטרנטי



מידע אינטרנטי אינו בשליטת חברת Open AI ולכן ההתאמה שלו לצורך אימון לא בהכרח טובה. 

יש הרבה מידע לא אמין, ובמקרים מסוימים גם מידע שגוי במתכוון, שנוצר על ידי ארגונים ואנשים בעלי אינטרסים פוליטיים, מסחריים ואחרים. חלקם מעוניינים שהאימון יתבצע דווקא על מידע מוטה. 

התוצאה הסופית עלולה להיות הגדלת חוסר הדיוק ולפעמים גם הגדלת כמות ההזיות במקום צמצומן. 







יום שני, 6 באפריל 2026

בינה מלאכותית: השילוב הקטלני של הזיות, רצון לרצות את המשתמש ומנגנון למידה באמצעות תיקוף אנושי



יש חוקרים ב-MIT שלא משאירים אף אבן שלא הפכו אותה בבועת הבינה המלאכותית. 

המאמר המלכודת של ChatGPT שגורמת לכם לאבד קשר עם המציאות הופיע בעיתון ישראל היום בתאריך 2.4.26.


המאמר מציג מחקר שבוצע באוניברסיטת MIT. המחקר מזהיר מפני מצבים קיצוניים שבהם ChatGPT "מחזק שקרים שהמשתמש מאמין בהם עד לאובדן שפיות". בחלק מהמקרים זה גם הביא להתאבדויות. 

לנוחות הקוראים מצרפים כותבי המאמר ב"ישראל היום" בוריס נסימוב ושחר שפירו גם את המחקר המקורי באנגלית. 


הטענה היא שהרצון לרצות את המשתמש ביחד עם מנגנון התיקוף האנושי והזיות מטים את ה-ChatGPT לשכנע את המשתמש להאמין בשקרים של עצמו, למשל: אדם שחשב שמצא נוסחה מתמטית ייחודית. במקום שה-ChatGPT יבדוק את הנוסחה ויראה שהיא אינה תקפה הוא מנסה לרצות את המשתמש ולשכנע אותו שאכן מצא נוסחה כזו. 

יום ראשון, 5 באפריל 2026

בינה מלאכותית: בדרך למשבר אנרגיה?

 


בבועת הבינה המלאכותית של היום נוטים להתעלם מהוצאות לבניית תשתית לבינה מלאכותית. רבים מעדיפים להתמקד בקיצורי דרך במטלות טכניות פשוטות. 


מאמר שכתב Mike Scott ב-Prism של Arthur D. Little מתמקד בנושא התשתיתי של אנרגיה, שעלול לעצור או להאט את התפתחות הבינה המלאכותית. 

קישור למאמר: Will an Energy Crunch Stop the AI Revolution in its Tracks?  



תמצית 



תוכנות בינה מלאכותית מהדור הנוכחי צורכות משאבי תשתית בסדר גודל אחר מאשר מערכות תוכנה רגילות.

מדובר ביותר מרכזי מחשבים ענקיים התופסים יותר שטח פיזי. מדובר גם בצריכת חשמל גבוהה בהרבה מאשר מערכות רגילות. 

המשך קצב הגידול הנוכחי של מערכות בינה מלאכותית יביא למשבר של חוסר במשאבי חשמל בשנת 2030 או אפילו לפניה. זה עלול או עשוי לחייב האטת מירוץ הבינה המלאכותית. 



רקע



מאז השקת ChatGPT הגידול ב-AI נראה בלתי נמנע. לכאורה, שום דבר לא יעצור את הגידול. חברות גדולות זורקות מיליארדי דולרים לשימוש ולפיתוח בינה מלאכותית. המטרה היא בניית תשתית עולמית המבוססת על בינה מלאכותית. 

התשתית הזו מבוססת על Public Cloud ועל מסכים בהם משתמשים משתמשי תוכנות AI. 

הפעילות הזו של הוספת AI לתשתיות נראית כתוספת קטנה כמעט חסרת משקל לתשתיות האינטרנט והענן הציבורי הקיימות. 

יש התעלמות משיקולים מציאותיים של צריכת אנרגיה, תשתיות פיזית וזמינות משאבים.


הערה שלי: החלק המסומן באדום מתאר בועה. כמו בועת ה-Dot Com ובועת הבינה המלאכותית העכשווית. 


המציאות היא שהתפתחות הבינה המלאכותית היא מנוגדת למציאות הפיזיקלית בתחומים כמו: צריכת חשמל, מים, משאבים יקרים ולא שכיחים של קרקע ורשתות חשמל. 



חשמל ורשתות חשמל



בהמשך הפוסט אתמקד בנושא של חשמל ורשתות חשמל כפי שעושה המאמר.

לגידול במורכבות של שאילתות של AI יש מחיר כבד בצריכת חשמל. 

בגרף המוצג במאמר מופיעים נתונים של צריכה ב: WH. אלה ראשי תיבות של watt per hour. 


דוגמאות מהגרף לממוצעי צריכה של פעולות: 

יום עבודה של 8 שעות של בן אנוש:   800 WH

ממוצע של שאילתה בחיפוש בגוגל:  WH 0.2-0.34 

כמו שאילתה של 100 מילים ב-ChatGPT 4. 

שאילתה של 100 מילים ב-ChatGPT 5 צורכת חשמל כמו טעינה מלאה של טלפון סלולרי:  18 WH


5 שניות של סרט וידאו בתוכנת Codvideox צורכת כבר 950 WH.



התנגשות בין מגמות על (Mega trends)


המגמה של מערכות ענן העובדות 24 שעות בכלל ומערכות AI במיוחד, מתנגשת עם חיסכון בחשמל. 

צריכת החשמל של המערכות העלה גבוהה מאוד וצפויה לעלות בסדר גודל 


התנגשות המגמות עלולה לפגוע בכלכלה העולמית. כך למשל, נפילה של פלטפורמת הענן הציבורי הגדולה AWS של אמזון באוקטובר 2025 השביתה 10,000 - 30,000 מערכות.



פיתרונות לדרישות האדירות לחשמל ולרשתות חשמל



על פי המאמר פיתרון חלקי עשוי להיות התיעלות בצריכת החשמל. 

ספק גדול האם זה ישפיע מהותית על סדר גודל כל כך גדול של צריכת חששמל ועומס על רשתות חשמל.


הפיתרון הנוסף הוא הסתמכות על אנרגיה ירוקה. 

באופן ספציפי מדובר על תחנות כוח אטומיות. 

גם להן עשויים להיות אתגרים: 

1. מחיר

2. בטיחות

3. אבטחת מידע.




הזווית שלי



פרט לאיזכור צנוע של הכלכלה הגלובלית אין במאמר התיחסות להשפעה על היבטים שאינם חלק מדרישות מערכות מחשוב. 

בצריכה כל כך אדירה של חשמל יש היבטים נוספים, למשל: הגדלת התחממות כדור הארץ
















יום ראשון, 29 במרץ 2026

סדרת הרצאות: סיכוני בינה מלאכותית

 



כמי שעסק במחשוב ובטכנולוגיית המידע במשך יותר מארבעים שנה נחשפתי לבינה מלאכותית לפני הגל הנוכחי.

גם במסגרת לימודי באוניבסיטה העברית בירושלים השתתפתי בקורס על בינה מלאכותית.


אני עוסק הרבה גם בניהול סיכונים. לא מפליא שבחרתי להתמקד גם בסיכוני בינה מלאכותית. 

תוכלו למצוא פוסטים בבלוג זה על הנושא וסרטונים בערוץ היוטיוב שלי


אני מקווה שבקרוב יהיה לי קורס מקוון מסודר על סיכוני בינה מלאכותית.



ההיסטוריה של הבינה מלאכותית: מה אפשר ללמוד מהעבר על העתיד

 


הרצאה הסוקרת את התפתחות הבינה המלאכותית מתחילתה ועד היום. 
אפשר להפיק לא מעט תובנות על הצפוי בעתיד ממה שקרה בעבר. 



הרצאה כללית על סיכוני בינה מלאכותית



זוהי ההרצאה הראשונה שפיתחתי. היא כוללת את כל מרחב הסיכונים באופן פחות מעמיק. לצורך הכנתה התיעצתי עם שלוש תוכנות בינה מלאכותית. שאלתי אותן: מה הם הסיכונים? וביקשתי שיצינו מקורות למה שהן אומרות. 


קיצור תולדות ההעתקה או מדוע רבים מעתיקים? 



הרצאה על העתקות בהקשר הרחב (לא רק מבחנים ועבודות אלא גם תוכנה, חומרה ומוצרים אחרים). 
מתחילתן ועד להשפעת הבינה המלאכותית עליהן בשנים האחרונות.




הטיות ומגבלות טכנולוגיות של בינה מלאכותית



מדוע בינה מלאכותית טועה בתדירות לא נמוכה בכלל? ההרצאה על הטיות ומגבלות תרחיב את ההבנה בהקשר זה. היא עשויה גם לספק כלים שיצמצמו את ההטיות. 





סיכוני AI: קוגניטיביים ורגשיים



הרצאה העוסקת בהשלכות על תפקוד מוחי, מתחים ובעיות רגשיות בגלל שימוש בבינה מלאכותית.



סיכונים לא טכנולוגיים




בהרצאה זו אעסוק בסיכונים אחרים שהחמור שבהם הוא השמדת האנושות.






 

סדרת הרצאות על כלכלת המשפחה



לפרטים ולהזמנת הרצאות: טלפון: 054-4480616 או דוא"ל: avi.rosenthal@gmail.com.