אחד מסיכוני הבינה המלאכותית שאני מדבר עליהם בהרצאה שלי על סיכוני בינה מלאכותית הוא הטיה במזיד.
אני מביא כדוגמה Bot של X.
הבוט, הנקרא Grok, אומר שחבל שהיטלר לא השתלט על ארצות הברית במלחמת העולם השנייה כי אז הייתה נמנעת הגירה לארה"ב והגיוון של הוליווד היה נעלם.
הטענה שלי היא, שאם מישהו אינו מכיר את העובדות, ולצערי יש בעולם הרבה אנשים כאלה, ויש לו ניסיון חיובי עם Grok במענה לשאלות אחרות, הוא עלול להשתכנע שיש אמת בדברי הבוט על היטלר ולפעול בהתאם.
טענתי שזה מקרה קיצון. במקרים פחות קיצוניים, אנשים עלולים להאמין ביתר קלות לטענות מופרכות של כלי AI. גם לטענות מופרכות במזיד.
בעיתון "הארץ" מ-12.12.25 מופיעה כתבה של מאיה רומן. כותרת הכתבה "מחקרים: שיחה עם בינה מלאכותית עשויה לשנות במידה רבה עמדות פוליטיות של בוחרים"
הכתבה מתיארת שני מאמרים מדעיים שפורסמו ב-Science וב-Nature.
שני המאמרים עוסקים בשינויים בעמדות בהשפעת שיחת Chat עם Bot.
הבוטים מסתמכים על מידע שגוי, לפעמים שגוי במזיד.
המאמר ב-Nature מתאר תוצאת מחקר בו השתתפו 2,300 אזרחים אמריקאים, מראה כי 2%-3% מהמצביעים בארה"ב שינו את עמדתם הפוליטית בעקבות חשיפה לבוטים.
אותו מחקר בפולין ובקנדה מצא שינוי עמדות אצל כ-10% מהמשתתפים.
על פי המאמר ב- Science, ככל שמודלי השפה של ה-AI אומנו לספק עובדות רבות יותר כך הם נטו לשקר יותר.
עתיד לא ורוד
בהרצאות ובפוסטים שלי אני עושה הקבלות בין AI של היום והאינטרנט בתחילת דרכו.
אני מהדור שחווה את בועה הדוט קום בזמן אמת.
על בועת AI דיברתי הרבה לפני שסם אלטמן דיבר עליה.
היא נמשכת גם למשהו שהתחיל יפה (כללי ההתנהגות והנימוס באינטרנט בתחילת דרכו, למי שהיה שם וזוכר) והיום מוצף בשקרים, באי-כיבוד פרטיות ובפרסומות.
אין תגובות:
הוסף רשומת תגובה