יום חמישי, 25 בדצמבר 2025

כלי בינה מלאכותית: האם יש יכולת להבחין בין מקורות ראויים וראויים פחות?

 


אתמול (23.12.25) השתתפתי בהרצאת זום של פרופ' סיגל תפארת ממכללת רופין. 

ההרצאה והתרגול נועדו לויקיפדים. כשהנושא היה שימוש בכלי AI לצורך כתיבת ערכים בויקיפדיה. 


אחת התועלות שאני הפקתי מההרצאה הוא חידוד ההבחנות, שהעלתי במצגת שלי על סיכוני בינה מתאכותית, בהקשר של מקורות המידע בהם משתמשים כלי בינה מלאכותית. 


פרופ' תפארת היא בעצמה ויקיפדית. הקישור הבא הוא לערך שכתבה בנושא רלוונטי לכותרת פוסט זה מאמר מדעי



האופן בו מרבית כלי בינה מלאכותית מחפשים מקורות



המילה "מרבית" בכותרת כוללת גם כלי AI מובילים כמו ChatGPT ו-Google Gemini AI. 


1. אין הבדל מהותי בין גרסאות בתשלום של כלי הבינה המלאכותית לגרסאות ללא תשלום.

המשמעות היא שאנחנו עשויים לקבל מידע המבוסס על מקורות לא טובים ללא קשר לשאלה האם אנחנו משתמשים בגרסה משודרגת בתשלום?


2. לרוב הכלים יש הטיה לטובת מקורות פתוחים (Open Access).

משתמשים הרבה באתרים הידועים בכך שיש בהם מקורות לא אמינים.

בתרגיל שעשינו היו קישורים לספרים פתוחים מהוצאות MDPI ו-Frontier.

פרופ' תפארת אומרת שהיא מכירה את ההוצאות האלה כהוצאות ספרים גרועות. 

בוודאי שאין לי סיבה לחלוק על דבריה יחס להוצאות אלו.

רציתי להוסיף שתי הערות:

א. גם כשאני עבדתי עם כלי AI וביקשתי מקורות קיבלתי בחיפוש מקורות מאתר Frontier. 

היות שלא היכרתי את ההוצאה התייחסתי אליו ברצינות. יום אחד הקישור הפך לקישור שבור.


ב. בהרחבת הערך דאו דה ג'ינג בויקיפדיה הוספתי פיסקה המתייחסת לתרגומים לעברית. 

אין ספק שהתרגום מסינית של דן דאור ויואב אריאל הוא תרגום מעולה. לא הבעתי את דעתי על התרגום הזה בערך עצמו. 

דעתי לא חשובה משום שאיני מומחה בתחום. דעתו של  פרופ' יורי פינס חשובה. מקור לערך שנכתב על ידי פרופ' פינס אומר זאת.

לא כתבתי בערך עצמו את דעתי על התרגום מאנגלית בהוצאת אור עם. 

מהיכרותי עם ההוצאה הזו ומקריאת כמה דפים מהתרגום הזה בהשוואה לתרגומים אחרים, אני חושב שזה תרגום כושל שאסור להסתמך עליו.


3. חלק מהכלים אינם מציינים מקורות

אחד מכלי ה-AI לא ציין בכלל מקורות כשביקשתי ממנו לעשות זאת

Gemini ציין את סוגי המקורות עליהם הסתמך ונתן דוגמאות לכמה מקורות קונקרטיים.

Perplexity מציין באופן שיטתי מקורות לטענות שלו. זה עדיין לא אומר שהמקורות הם מקורות ראויים. 

בהרצאה ראינו דוגמאות למקורות לא ראויים, שגם Perplexity השתמש בהם.


4. כלי AI ממציאים לפעמים מקורות על מנת לרצות את המשתמש

תמצאו מקורות שאינם קיימים. ל-Deloitte אוסטרליה זה עלה הרבה כסף. יתכן שגם בפגיעה במוניטין.



לא רק מקורות אלא מה שמוציאים מהם



Gemini AI הסתמך בתשובתו לשאלה שלי על סיכוני בינה מלאכותית על מקור ראוי (אם כי ישן, מלפני עשר שנים).

קראתי בעצמי את המקור ומצאתי בו נקודה מהותית (סיכון להשמדת האנושות על ידי AI) שהמאמר דן בה. 

כלי הבינה המלאכותית בחר להתעלם ממנה. 



איך אפשר לנסות להתגבר על הכשלים בבחירת מקורות?



1. שאלה מקדימה: מי המומחים בתחום?

פרופ' סיגל תפארת מציעה להתחיל בשאלה לכלי ה-AI: מה הם המומחים בתחום? 

השאלה הבאה תהיה השאלה שהתכוונתם לשאול עם מגבלה של הסתמכות רק על מאמרים שאותם מומחים כתבו.


2. תיאור מיהו השואל

זה לא חייב להיות מי שהוא באמת. זה יכול להיות למשל, בהנחה שהשואל הוא נער בן 14 או בהנחה שהשואלת היא מומחית בתחום.

השאיפה לרצות את השואל עשויה להשפיע על בחירת המקורות. 


3. אם השואל הוא מומחה בתחום, הוא יכול להעריך אילו מקורות צריך לזרוק.

לאחר הערכת כזו אפשר לבקש מכלי הבינה המלאכותית לתת תשובה מתוקנת, תוך התעלמות מהמקורות הללו. 


4. בחירת כלי AI יעודי שיש לו יכולות משופרות בבחירת מקורות

בהרצאה צויין כלי כזה.



5. Second Opinion של כלי AI נוסף

יכול לתת תובנות ביחס לאיכות מקורות חשודים שלא צוינו על ידי אחד הכלים.



השורה התחתונה



1. תמיד חייבים לקרוא לבד את המקורות על מנת לוודא שהם קיימים, ראויים וכלי הבינה המלאכותית השתמש בהם באופן סביר.


2. לכלי AI שונים יש יכולות שונות והתמחויות שונות. בחרו כלי המתאים לצורך הספציפי שלכם.


3. הניחו שלכלי הבינה המלאכותית יש הטיות בשוגג או במזיד. 

לתפיסתי Grok חשוד יותר מכלים אחרים בהטייות במזיד.


4. היו ערים לסיכונים.

כך למשל, אני ממליץ לא לשתף מידע אישי שלכם עם כלי בינה מלאכותית. במיוחד לא מידע רגיש. 

אני לא משתף מידע אישי עם כלי בינה מלאכותית ולא שואל שאלות אישיות רגישות הנוגעות לי. 

אין רגולציה מספיק טובה וגם לו הייתה הפרטיות שלכם עלולה להיפגע אפילו יותר מאשר ברשתות החברתיות.





אין תגובות:

הוסף רשומת תגובה