בפוסט הזיות: כשל לוגי מהותי ב-Chatbots מבוססי מודל שפה גדול נגעתי בהזיות בינה מלאכותית ובניסיון לצמצם אותן באמצעות אימון.
המסקנה הייתה שאימון של Chat Bot באמצעות כמויות גדולות אינו מצליח לצמצם באופן משמעותי את כמות ההזיות באופן אפקטיבי בגלל איכות המידע המשמש לאימון.
על מנת לנסות להקטין את כמות ההזיות התווספה טכניקה נוספת לאימון ה-Chat Bot.
כמו בפוסט הקודם גם בפוסט זה אתמקד ב-ChatGPT, שבו התווסף כלי אימון נוסף הנקרא: RLHF.
RLHF הם ראשי תיבות של: Reinforcement Learning from Human Feedback.
בעברית: למידת חיזוק באמצעות היזון חוזר אנושי.
הרעיון הוא שלאימון באמצעות מידע יתווסף לימוד מפידבק של בני אדם. השילוב של שניהם עשוי להקטין את שיעור ההזיות.
ברוב המקרים סטטיסטית הוספה של משתנה מנבא נוסף משפרת את הניבוי.
לא בטוח שזה המצב במקרה זה.
אם תקראו את הפוסט בינה מלאכותית: השילוב הקטלני של הזיות, רצון לרצות את המשתמש ומנגנון למידה באמצעות תיקוף אנושי, אולי תקבלו רמז לכך שמקרה זה עלול להיות חריג.
סימני שאלה ביחס לתקפות משוב אנושי
אם מושיבים אדם מול מערכת התוכנה והוא נותן פידבק, סביר להניח שיש לו הטיות קוגניטיביות והטיות רגשיות.
קוראים המעוניינים בכך יכולים לקרוא בבלוג שלי לכלכל בתבונה על מספר רב של הטיות קוגניטיביות.
פשוט חפשו בבלוג "הטיות קוגניטיביות" או "דניאל כהנמן".
מרבית ההטיות הקוגניטיביות שאני כותב עליהן נכתבו על בסיס קריאה של ספרו של חתן פרס נובל לכלכלה דניאל כהנמן ז"ל "לחשוב מהר לחשוב לאט".
הטיות קוגניטיביות עלולות לפגוע בתוקף ובאמינות של ההיזון החוזר האנושי.
תוסיפו לזה את הנטייה של Chat Bots לרצות משתמשים אנושיים ותקבלו חיזוק מוגבל, אם בכלל.
דרך אחרת לחיזוק למידה אנושי מזכרת במאמרו של שגיא כהן בעיתון "דה מרקר" שכותרתה למה חברות ה-AI הגדולות רוצות לשלם לכם כדי לרוקן מדיח?.
הכתבה מתארת תשלומים של חברות ה-AI לאנשים פשוטים תמורת סרטונים בהם הם מבצעים פעולות יומיומיות. הסרטונים מוזנים כאמצעי חיזוק למידה אנושי.
על פי הכתבה, המודל הזה אינו חסר בעיות.
להלן כמה בעיות:
1. בדרך כלל מדובר בתשלומים נמוכים מאוד.
2. אוכלוסיית המסריטים החובבנים המשתתפת בפרויקטים כאלה היא אוכלוסייה ענייה הזקוקה לכסף הזה לפרנסתה.
3. הדרישות הן לסרטונים מושלמים. ללא בעיות וללא הפסקות.
אלה שמכינים אותם לא מקבלים תשלום, אם וכאשר נמצא פגם כלשהו בסרטון.
4. אלה שמכינים אותם עושים לא מעט איטרציות אם וכאשר יש בעיה הכי קטנה שהם מגלים בסרטון.
5. המשתתפים בפרויקט אולי יוחלפו בעתיד על ידי רובוטים של בינה מלאכותית, כך שהם אולי מונעים מעצמם פרנסה עתידית.
השורה התחתונה
קיימים סימני שאלה ביחס לאפקטיביות של למידת חיזוק אנושי בהקטנת ההזיות של תוכנות בינה מלאכותית.