google.com, pub-1121470591265953, DIRECT, f08c47fec0942fa0

יום רביעי, 8 באפריל 2026

הזיות: כשל לוגי מהותי ב-Chatbots מבוססי מודל שפה גדול

 



בבלוג שלי העוסק במחשבים ובטכנולוגיית המידע התייחסתי לכשל לוגי במודל של מוצרי AI בפוסט: 

 Vendors Survival: Will Open AI Survive Until 2036? 



הכשל מתייחס למוצרים מבוססי Large Language Models כמו ChatGPT. 
בפוסט אתייחס ל-ChatGPT. גם מוצרים מתחרים משתמשים במנגנונים דומים. 

המודל הוא מודל המבוסס על הסתברות בייסיאנית. יש מצבים הנקראים הזיות בהם מוצר ה-AI מבין לא נכון את כוונת השואל. התוצאה היא הזיות, כלומר: תשובות מנותקות משאלת השואל.
.  
הזיות הן סיכון גדול משום שששואל השאלה מקבל מידע שגוי ועלול להתייחס אליו כאל מידע מהימן. 

מי שמשתמש בטלפון חכם במתקן איות אוטומטי משתמש בכלי הפועל על פי מודל הסתברותי דומה. גם שם יש הזיות. 
במקרה של מתקן האיות הוא מנסה לתקן מילה עם טעות הקלדה ומתקן אותה למילה עם משמעות שונה מהמילה אליה התכוון המקליד. 

לי הספיקו שתי הזיות נוראות על מנת להפסיק להשתמש במתקן האיות בטלפון. 

ההבדל בין תיקון אוטומטי של איות לבין תוכנת בינה מלאכותית הוא במורכבות. תיקון איות הוא מודל פשוט. גם ניסיונות לצמצם את כמות ההזיות פשוטים יחסית.
Chatbot של בינה מלאכותית הרבה יותר מורכב.




אימון של ה-Chatbot לצורך הקטנת תדירות הזיות



לא ניתן למנוע לחלוטין הזיות משום שזהו כשל מובנה במנגנון סטטיסטי בייסיאני. 
באמצעות אימון ה-Chatbot מנסים לצמצם את היקף ההזיות. 

האימון מתבצע על כמויות גדולות של מידע. במהדורות הראשונות של ChatGPT הוכן מידע שהמפתחים חשבו שהוא ישמש את מוצר הבינה המלאכותית לצורך אימון. 
בכל מהדורה חדשה הוגדלה כמות המידע לאימון. 

במהדורות החדשות החברה הפסיקה לפרסם מאפיינים של המידע שמשמש לאימון. 
הפסקת הפרסום נובעת מזה שאימון נעשה על מידע אינטרנטי. 


אתגרי מידע אינטרנטי



מידע אינטרנטי אינו בשליטת חברת Open AI ולכן ההתאמה שלו לצורך אימון לא בהכרח טובה. 

יש הרבה מידע לא אמין, ובמקרים מסוימים גם מידע שגוי במתכוון, שנוצר על ידי ארגונים ואנשים בעלי אינטרסים פוליטיים, מסחריים ואחרים. חלקם מעוניינים שהאימון יתבצע דווקא על מידע מוטה. 

התוצאה הסופית עלולה להיות הגדלת חוסר הדיוק ולפעמים גם הגדלת כמות ההזיות במקום צמצומן. 







אין תגובות:

הוסף רשומת תגובה