google.com, pub-1121470591265953, DIRECT, f08c47fec0942fa0

יום חמישי, 8 בינואר 2026

בינה מלאכותית: הטיית הלקוח המרוצה

 


זוג יהודי מסוכסך פנה לרב. הגבר סיפר את גרסתו. הרב אמר: "אתה צודק". 

האשה סיפרה את גרסתה (המנוגדת לגרסת בעלה, יש לומר). 

הרב אמר: "את צודקת". 

כשהזוג הלך שאל עוזרו של הרב את הרב: "איך אמרת לשניהם שהם צודקים. הרי הגסאות שלהם מנוגדות?".

הרב אמר: "גם אתה צודק". 


ל-ChatGPT ולכלים אחרים השואפים להיות כלי AGI  אין הסתמכה לרבנות, אבל ההתנהגות שלהם מזכירה את התנהגותו של הרב בבדיחה הזאת.


AGI הן ראשי תיבות של Artificial general intelligence. כלומר: כלי בינה מלאכותית המנסים להציג יכולות אינטליגנציה כלליות של בני אדם או יכולות גבוהות יותר.


הכלי הראשון מסוג זה נוצר כבר בשנת 1957 במעבדות RAND ונקרא GPS ראשי תיבות של General Problem Solver

כמובן שהיכולות שלו היו הרבה יותר מוגבלות מיכולות הכלים העדכניים בהיעדר אינטרנט וגישה למאגרי מידע, בעוצמת מחשוב זעירה בהשוואה ליכולת הנוכחית (מעבדים, זיכרון, תקשורת) ובהיעדר תוכנות מתקדמות בתחומים כמו וידאו ותמונות.



נזקי ההטיה לכיוון רצונו המשוער של המשתמש



במקרים רבים ההטיה הזו מביאה למידע ולמסקנות מוטעות. 

לפעמים התוכנה "קוראת" לא נכון את רצונו של המשתמש.

לפעמים היא מעוותת את המציאות על מנת לרצות את המשתמש.


זה לא הדבר הגרוע ביותר שגורמת ההטיה הזו. 



עלה בחיי אדם

היו כבר מקרים בהם משתמשים שיתפו את תוכנת הבינה המלאכותית בבעיות האישיות שלהם. 

במקרים חמורים הם דיברו על נטיות אובדניות (רצון להתאבד). 

אם התוכנה חשבה שרצונם להתאבד, היא המליצה להם לעשות זאת.


כמה מהם קיבלו את ההמלצה של התוכנה והתאבדו. 














אין תגובות:

הוסף רשומת תגובה