מערך הסייבר הלאומי מזהיר מפני עלייה בניסיונות פישינג מתוחכמים. הניסיונות מבוססים על התחזות לגורמים מוכרים. הניסיונות עשויים להיראות אמינים במיוחד.
מערך הסייבר הלאומי מזהיר מפני עלייה בניסיונות פישינג מתוחכמים. הניסיונות מבוססים על התחזות לגורמים מוכרים. הניסיונות עשויים להיראות אמינים במיוחד.
אתמול (23.12.25) השתתפתי בהרצאת זום של פרופ' סיגל תפארת ממכללת רופין.
ההרצאה והתרגול נועדו לויקיפדים. כשהנושא היה שימוש בכלי AI לצורך כתיבת ערכים בויקיפדיה.
אחת התועלות שאני הפקתי מההרצאה הוא חידוד ההבחנות, שהעלתי במצגת שלי על סיכוני בינה מתאכותית, בהקשר של מקורות המידע בהם משתמשים כלי בינה מלאכותית.
פרופ' תפארת היא בעצמה ויקיפדית. הקישור הבא הוא לערך שכתבה בנושא רלוונטי לכותרת פוסט זה מאמר מדעי.
המילה "מרבית" בכותרת כוללת גם כלי AI מובילים כמו ChatGPT ו-Google Gemini AI.
1. אין הבדל מהותי בין גרסאות בתשלום של כלי הבינה המלאכותית לגרסאות ללא תשלום.
המשמעות היא שאנחנו עשויים לקבל מידע המבוסס על מקורות לא טובים ללא קשר לשאלה האם אנחנו משתמשים בגרסה משודרגת בתשלום?
2. לרוב הכלים יש הטיה לטובת מקורות פתוחים (Open Access).
משתמשים הרבה באתרים הידועים בכך שיש בהם מקורות לא אמינים.
בתרגיל שעשינו היו קישורים לספרים פתוחים מהוצאות MDPI ו-Frontier.
פרופ' תפארת אומרת שהיא מכירה את ההוצאות האלה כהוצאות ספרים גרועות.
בוודאי שאין לי סיבה לחלוק על דבריה יחס להוצאות אלו.
רציתי להוסיף שתי הערות:
א. גם כשאני עבדתי עם כלי AI וביקשתי מקורות קיבלתי בחיפוש מקורות מאתר Frontier.
היות שלא היכרתי את ההוצאה התייחסתי אליו ברצינות. יום אחד הקישור הפך לקישור שבור.
ב. בהרחבת הערך דאו דה ג'ינג בויקיפדיה הוספתי פיסקה המתייחסת לתרגומים לעברית.
אין ספק שהתרגום מסינית של דן דאור ויואב אריאל הוא תרגום מעולה. לא הבעתי את דעתי על התרגום הזה בערך עצמו.
דעתי לא חשובה משום שאיני מומחה בתחום. דעתו של פרופ' יורי פינס חשובה. מקור לערך שנכתב על ידי פרופ' פינס אומר זאת.
לא כתבתי בערך עצמו את דעתי על התרגום מאנגלית בהוצאת אור עם.
מהיכרותי עם ההוצאה הזו ומקריאת כמה דפים מהתרגום הזה בהשוואה לתרגומים אחרים, אני חושב שזה תרגום כושל שאסור להסתמך עליו.
3. חלק מהכלים אינם מציינים מקורות
אחד מכלי ה-AI לא ציין בכלל מקורות כשביקשתי ממנו לעשות זאת.
Gemini ציין את סוגי המקורות עליהם הסתמך ונתן דוגמאות לכמה מקורות קונקרטיים.
Perplexity מציין באופן שיטתי מקורות לטענות שלו. זה עדיין לא אומר שהמקורות הם מקורות ראויים.
בהרצאה ראינו דוגמאות למקורות לא ראויים, שגם Perplexity השתמש בהם.
4. כלי AI ממציאים לפעמים מקורות על מנת לרצות את המשתמש
תמצאו מקורות שאינם קיימים. ל-Deloitte אוסטרליה זה עלה הרבה כסף. יתכן שגם בפגיעה במוניטין.
Gemini AI הסתמך בתשובתו לשאלה שלי על סיכוני בינה מלאכותית על מקור ראוי (אם כי ישן, מלפני עשר שנים).
קראתי בעצמי את המקור ומצאתי בו נקודה מהותית (סיכון להשמדת האנושות על ידי AI) שהמאמר דן בה.
כלי הבינה המלאכותית בחר להתעלם ממנה.
1. שאלה מקדימה: מי המומחים בתחום?
פרופ' סיגל תפארת מציעה להתחיל בשאלה לכלי ה-AI: מה הם המומחים בתחום?
השאלה הבאה תהיה השאלה שהתכוונתם לשאול עם מגבלה של הסתמכות רק על מאמרים שאותם מומחים כתבו.
2. תיאור מיהו השואל
זה לא חייב להיות מי שהוא באמת. זה יכול להיות למשל, בהנחה שהשואל הוא נער בן 14 או בהנחה שהשואלת היא מומחית בתחום.
השאיפה לרצות את השואל עשויה להשפיע על בחירת המקורות.
3. אם השואל הוא מומחה בתחום, הוא יכול להעריך אילו מקורות צריך לזרוק.
לאחר הערכת כזו אפשר לבקש מכלי הבינה המלאכותית לתת תשובה מתוקנת, תוך התעלמות מהמקורות הללו.
4. בחירת כלי AI יעודי שיש לו יכולות משופרות בבחירת מקורות
בהרצאה צויין כלי כזה.
5. Second Opinion של כלי AI נוסף
יכול לתת תובנות ביחס לאיכות מקורות חשודים שלא צוינו על ידי אחד הכלים.
6. התבססות על מקורות שהמשתמש נותן לכלי ה-AI
המשתמש נותן קישורים למקורות ומבקש מכלי ה-AI להסתמך רק עליהם.
במקרים רבים זה אינו מה שהמשתמש יכול לתת וזה לא מה שהמשתמש רוצה להפיק מכלי ה-AI.
1. תמיד חייבים לקרוא לבד את המקורות על מנת לוודא שהם קיימים, ראויים וכלי הבינה המלאכותית השתמש בהם באופן סביר.
2. לכלי AI שונים יש יכולות שונות והתמחויות שונות. בחרו כלי המתאים לצורך הספציפי שלכם.
3. הניחו שלכלי הבינה המלאכותית יש הטיות בשוגג או במזיד.
לתפיסתי Grok חשוד יותר מכלים אחרים בהטייות במזיד.
4. היו ערים לסיכונים.
כך למשל, אני ממליץ לא לשתף מידע אישי שלכם עם כלי בינה מלאכותית. במיוחד לא מידע רגיש.
אני לא משתף מידע אישי עם כלי בינה מלאכותית ולא שואל שאלות אישיות רגישות הנוגעות לי.
אין רגולציה מספיק טובה וגם לו הייתה הפרטיות שלכם עלולה להיפגע אפילו יותר מאשר ברשתות החברתיות.
בהרצאה שלי: לסמוך או לא לסמוך על אבטחת מידע של בנקים? הצעתי לא לסמוך ב-100 אחוז על אבטחת המידע של הבנקים. במקום זאת לאמץ גישה של "כבדהו וחשדהו".
בפוסט זה אציע לאמץ גישה דומה ביחס לשירותי הסיוע הטכני של חברות תקשורת.
הגישה של חברות התקשורת היא להתחיל לחפש בעיה אצל המשתמש ולא אצלם.
אחרי בדיקה ארוכה ומורכבת שעל פי חוק פראטו רק בכ-20% מהמקרים תגלה בעיה אצל הלקוח, הם יתחילו לחפש בעיה במערכות שלהם.
הגישה שלי הפוכה: תתחילו לחפש את הבעיה אצלכם ולא אצל הלקוח. אם לא תמצאו בעיה, תחפשו אותה אצל הלקוח.
רצוי גם שנציגי השירות של חברות התקשורת יבינו עם מי הם מדברים.
כך למשל, אל תחשדו באדם שעובד בהיי-טק שהוא לא חיבר את המחשב או הטלוויזיה לחשמל ולכן הם לא עובדים.
במקרה של אנשים שיש להם מומחיות בפתרון בעיות טכניות רצוי להקשיב להם.
במקרה שלהם זה לא יהיה חוק פראטו, אלא יחס יותר קיצוני לרעת חברת התקשורת.
אל מנת שמה שאני כותב כאן יהיה יותר מוחשי אביא שתי דוגמאות שהתנסיתי בהן אחת בעבר הרחוק עם חברת בזק.
השנייה מהיום (15.12.25) עם חברת פרטנר.
מדובר במקרים שאירעו בשנת 2016. לקריאת פוסט המתאר את מה שקרה: שרלוק הולמס ויום חמישי המסתורי בחברת בזק.
עד שפרטנר עברה מאפליקציית פרטנר לאפליקציית פרטנר פלוס הטלוויזיה האינטרנטית של פרטנר עבדה באופן סביר.
המעבר לפרטנר פלוס גרם להופעה בתדירות לא נמוכה של הודעה חיננית: "היי משהו השתבש בתהליך הניגון אנא נסה מאוחר יותר"
המשמעות המעשית: אינך יכול לצפות במה שאתה רוצה לצפות בו בשידור חי באופן סביר. יתכן שבעתיד תוכל לצפות בו.
לאלה שאינם מבינים מושגים טכניים בתכנות אתרגם את זה לעברית פשוטה:
בפרטנר בנינו אפליקציה טלויזיונית חדשה. שחררנו אותה ליצור (כלומר: המשתמשים בבית משתמשים בה) בלי שעשינו תהליך בדיקה מספיק טוב על מנת לוודא שאין בה תקלות מהותיות.
כשיש תקלות מהותיות אנחנו לא מוצאים דרך לפתור אותן ולא משחררים מספיק מהר גרסה מעודכנת שפותרת אותן.
בשעה 4:00 לפנות בוקר צפיתי בשידור חי של משחק ה-NBA בין פורטלנד לגולדן סטייט.
משחק מרתק ברמה גבוהה. הבעיה שלי הייתה איכות הצפייה שלי בגלל שיבושי הניגון. לפעמים איפשרו לי לראות רק חלק מהמסך כשהחלק התחתון מוסתר על ידי ההודעה על הניגון.
כשלחצתי עליה על מנת לבטל אותה, לפעמים חזרתי לצפייה במסך מלא לכשתי דקות עד להופעה מחודשת של ההודעה.
לפעמים נעלמה כל תצוגת המסך.
לאחר הליכת בוקר ארוכה עם חברים התקשרתי לפרטנר.
לנציגת השירות שענתה לי תמצתתי את הבעיה בשני משפטים: "יש לכם בעיה בתוכנת הטלוויזיה שלכם. אתם צריכים למצוא אותה ולשחרר גרסה מתוקנת".
אין לי טענות לנציגת השירות הסבלנית שבילתה איתי יותר משעה. היא אינה מומחית טכנית.
הטענות הן כלפי אלה שבנו לה את התהליך הכתוב לטיפול בבעיה וכמובן כלפי אלה שיצרו באגים ואלה שלא טיפלו בפיתרונם בזמן סביר.
תהליך הבדיקה שלה התחיל בצד של הלקוח.
אחרי שהסברתי לה מה הבעיה וכל ניסיונותיה לגרום להיעלמותה כשלו היא אמרה לי למחוק את האפליקציה ולהתקין אותה מחדש.
את החלק הראשון הצלחנו לבצע בקלות. ההתקנה כשלה.
כל ההנחיות שלה (על פי הההוראות הכתובת שניתנו לה) לא צלחו. עד שהיא התיאשה.
היא אמרה שהיא אינה יודעת איך לפתור את זה. היא תעביר את זה לצוות הטכני והם יחזרו אלי.
חיכיתי, חיכיתי ומי לא התקשר? הצוות הטכני של פרטנר.
החלטתי לנסות להתקין את האפליקציה בכוחות עצמי על סמך מה שזכרתי ממה שעשיתי כשעברתי בכוחות עצמי מאפליקציית פרטנר לאפליקציית פרטנר פלוס.
מהר מאוד הצלחתי להתקין אותה והאפליקציה עובדת אבל...
כמו בשיר של חווה אלברשטיין בסרטון בתחילת הפוסט "עוד חוזר הניגון". במקרה זה הניגון המשובש.
חזרתי למצב שלפני הפנייה שלי לפרטנר.
הפתרון יבוא רק מזה שמישהו בפרטנר ישחרר גרסה מתוקנת או לחילופין ישחזר לזמן ביניים גרסה קודמת עם פחות באגים.
חזרנו לשני המשפטים הראשונים שלי בשיחה עם התמיכה הטכנית של פרטנר שתיארו נכון את הבעיה ואת הפתרון הנדרש.
אין לי שמץ של מושג בתכנות אפליקציות טלוויזיה, אבל במשך ארבעים השנים שלי במחשבים ובטכנולוגיית המידע טיפלתי במספיק בעיות תכנות שלי ושל אחרים, חלקן מורכבות, על מנת שאוכל להבין את מקור הבעיה הטכנית גם בסביבות תכנות שאיני יודע לתכנת בהן.
הייתי מנהל קבוצת מערכות הפעלה בארגון. במחשב חדש של חברת HDS הייתה תקלה שגרמה לנפילות המערכת בשעות השיא של הפעילות.
העובדים שלי לא הצליחו לפתור את הבעיה. טכנאי חומרה מומחה, שהוטס מאנגליה מידית, לא הצליח לפתור את הבעיה.
במשך לילה שלם ישבנו מהנדס מערכת של החברה בארץ ואני וניסינו להבין את מקור הבעיה.
הצלחנו להבין את המקור ולגרום לבעיה באופן מכוון בשעה דלת פעילות בלילה.
לאחר הבנת מקור הבעיה במיקרוקוד של המחשב, למפתחים ביפן נדרש סדר גודל של חצי שעה על מנת לתקן את המיקרוקוד.
לאחר 20 שנים שבהן לא כתבתי קוד בשפת אסמבלר, קיבלתי עבודה בתחום זה בעדכון תוספת למערכת הפעלה של חברת IBM.
הנחתי שכל באג או בעיה הם באשמתי וחיפשתי פיתרונות לתיקון הקוד שלי.
לאחר שבדקתי לעומק בעיה שלא נפתרה, חשבתי שהבעיה היא במערכת ההפעלה של IBM ולא אצלי. הלקוח פנה ל-IBM ישראל וקיבל תשובה שהבעיה אצלי.
פנינו שוב בצירוף תסריטי בדיקה מפורטים שלי ותוצאותיהם.
ב-IBM ארה"ב אמרו שהבעיה היא אצלם ויתנו מעקף עד למציאת פתרון.
מה יעשו לקוחות חסרי מיומנות טכנית וחסרי מיומנות בפתרון בעיות?
אחד מסיכוני הבינה המלאכותית שאני מדבר עליהם בהרצאה שלי על סיכוני בינה מלאכותית הוא הטיה במזיד.
אני מביא כדוגמה Bot של X.
הבוט, הנקרא Grok, אומר שחבל שהיטלר לא השתלט על ארצות הברית במלחמת העולם השנייה כי אז הייתה נמנעת הגירה לארה"ב והגיוון של הוליווד היה נעלם.
הטענה שלי היא, שאם מישהו אינו מכיר את העובדות, ולצערי יש בעולם הרבה אנשים כאלה, ויש לו ניסיון חיובי עם Grok במענה לשאלות אחרות, הוא עלול להשתכנע שיש אמת בדברי הבוט על היטלר ולפעול בהתאם.
טענתי שזה מקרה קיצון. במקרים פחות קיצוניים, אנשים עלולים להאמין ביתר קלות לטענות מופרכות של כלי AI. גם לטענות מופרכות במזיד.
בעיתון "הארץ" מ-12.12.25 מופיעה כתבה של מאיה רומן. כותרת הכתבה "מחקרים: שיחה עם בינה מלאכותית עשויה לשנות במידה רבה עמדות פוליטיות של בוחרים"
הכתבה מתארת שני מאמרים מדעיים שפורסמו ב-Science וב-Nature.
שני המאמרים עוסקים בשינויים בעמדות בהשפעת שיחת Chat עם Bot.
הבוטים מסתמכים על מידע שגוי, לפעמים שגוי במזיד.
המאמר ב-Nature מתאר תוצאת מחקר בו השתתפו 2,300 אזרחים אמריקאים, מראה כי 2%-3% מהמצביעים בארה"ב שינו את עמדתם הפוליטית בעקבות חשיפה לבוטים.
אותו מחקר בפולין ובקנדה מצא שינוי עמדות אצל כ-10% מהמשתתפים.
על פי המאמר ב- Science, ככל שמודלי השפה של ה-AI אומנו לספק עובדות רבות יותר כך הם נטו לשקר יותר.
בהרצאות ובפוסטים שלי אני עושה הקבלות בין AI של היום והאינטרנט בתחילת דרכו.
אני מהדור שחווה את בועה הדוט קום בזמן אמת.
על בועת AI דיברתי הרבה לפני שסם אלטמן דיבר עליה.
שלשום (8.12.25) ראיתי בשידור חי ניתוחי לב מורכבים ומסובכים בבית החולים תל השומר.
בנוסף להסברים שנתנו המנתחים בזמן אמת, ישבו על הבמה כמה מומחים מובילים בתחום שהוסיפו הסברים ודגשים שלהם.
קשה היה שלא להתרשם מההתקדמות הגדולה בתחום ומהיכולות המרשימות של מומחי תל השומר.
מדובר בניתוחים הנקראים TAVR המחליפים ניתוחי לב פתוח.
לא היכרתי את המושג בחיפוש במחשב בבית קיבלתי את ההסבר הבא בסקירת AI של Google:
"TAVR הוא קיצור של החלפת מסתם אבי העורקים דרך צנתר (Transcatheter Aortic Valve Replacement), פרוצדורה רפואית המאפשרת להחליף מסתם אבי העורקים פגום באמצעות צנתר, במקום ניתוח לב פתוח. הניתוח פחות פולשני ומתבצע לרוב דרך חתך קטן במפשעה, ללא פתיחת בית החזה."
אין לי ידע רפואי והשכלה רפואית ולכן אני כותב על רפואה רק בהקשרים עם נושאים שאני כן מבין בהם.
בבלוג שלי על כלכלת המשפחה כתבתי על קבלת החלטות של רופאים.
בנושא של הטיות קוגניטיביות בקבלת החלטות אני מבין משהו, אחרי שלמדתי
בהקשר הזה, מעניין במיוחד הפוסט בו כתבתי על ויכוח רפואי שלי עם רופא בבית חולים על השאלה האם לבצע ניתוח קיסרי או לא?
אל תטעו, אני לא מבין ברפואה וזה המקרה היחיד בו התווכחתי עם רופא על נושא רפואי.
אני צדקתי בויכוח הרפואי הזה.
לא הייתי היחיד שחשב כך. את כל מה שאמרתי שמעתי משני רופאים, באופן בלתי תלוי, בפגישות לפני הניתוח.
הראשון היה מנהל המחלקה באותו בית חולים והשני סגנו.
העובדות בשטח הצביעו על כך ששני הפרופסורים לרפואה צודקים הרופא הלא בכיר טועה.
מה שיותר רלבנטי הוא בהקשר של הכותרת של פוסט זה. בניהול סיכונים יש לי הרבה ידע וניסיון.
לרופא הלא בכיר לא היה צל של מושג בניהול סיכונים.
צריך לחשוב על הסיכון במקרה שאתה טועה.
אם שני הפרופסורים טועים, יתבצע ניתוח קל ופשוט יחסית שלא לצורך.
אם הרופא הזוטר טועה, יגרם אסון נורא.
בוצע בהצלחה ניתוח קיסרי.
איני זוכר כמה זמן עבר ממנו ועד שראיתי באחד העיתונים ידיעה שהרופא הלא בכיר הזה הורשע בבית משפט ברשלנות רפואית.
מנתחי הלב בתל השומר ופנל המומחים אינם דומים לרופא הזוטר, שהוזכר בפסקה הקודמת.
הם התיחסו ברצינות לסיכונים והרבו להזכיר אותם במהלך שידור הניתוחים. להלן מספר סיכונים שעלו.
למנותחות יש מחלות רקע . צריך להתיחס לסיכונים שנובעים ממחלות הרקע.
הגיל מהווה גורם סיכון. בניתוחים אלה היו חולות מעל לגיל 70.
זהו ניתוח מורכב הדורש רמת מקצועיות גבוהה. ניתוח פשוט ומוכר אפשר לבצע בכל בית חולים.
בניתוח מורכב לחולה כדאי להיות מנותח בבית חולים ברמה גבוהה של מקצועיות כמו תל השומר.
ככל שהניתוח חדשני יותר הצטבר פחות ניסיון. עדיף לבחור בית חולים שבו הצטבר ניסיון גדול יחסית בתחום.
אם אפשר לבחור גם צוות מנתחים עתיר ניסיון בניתוח ספציפי זה.
הוזכר שהצלחת ניתוח מורכב כזה תלויה גם בניתוח מדויק ככל האפשר לפני הניתוח.
תכנון כולל גם ניהול סיכונים.
המנתח הראשי באחד הניתחים אמר שיש סיכון של פגיעה במוח במהלך הניתוח, שהוחלט לא להתמודד איתו.
הסיבה לכך היא כנראה הגדלת סיכונים אחרים אם ינסו להתמודד איתו.
סיבה אפשרית נוספת לאי התמודדות עם סיכון זה עשויה להיות היעדר Control אפקטיבי על מנת להתמודד עם הסיכון הזה.
ניהול סיכונים הוא דינמי. המומחים דיברו על התמודדות עם סיכון זה בניתוחים עתידיים.
הבדל מהותי בין ניהול סיכונים אחרים שאני מכיר לבין ניהול הסיכונים בניתוחים הוא ציר הזמן הקצר של אירוע ניתוח.
בציר זמן קצר כזה יש פחות זמן לאיטרציות לשיפור טיפול בסיכונים.
כמובן שכשמדובר בניתוח חירום ולא בניתוח מתוכנן מראש הקושי הזה מהותי יותר.
בניתוחים חדשניים ו/או מורכבים כדאי לבחור בית חולים ברמה גבוהה ומנתחים בעלי ניסיון רב ככל האפשר באותו ניתוח.
הוזכר גם השימוש הגדל והולך בכלי בינה מלאכותית בקרדיולוגיה.
העצה שלי היא להימנע מהסתמכות על כלי בינה מלאכותית ללא בקרה אנושית.
למידע נוסף אפשר לצפות בהרצאה שלי על סיכוני בינה מלאכותית. לחיצה על התמונה לעיל תביא אתכם להרצאה.
זוהי אחת מהונאות הסייבר המזיקות והמתוחכמות ביותר.
מקורה של הונאה זו בהודו. משם היא התפשטה לעולם כלו. זוהי הונאה חדשה יחסית שהחלה בהודו בשנת 2023.
המותקף מקבל הודעה שהוא מצוי במעצר דיגיטלי ונמצא בחקירה ועלול לעמוד למשפט.
הוא מתבקש להעביר כסף ו/או להעביר פרטים מזהים של חשבון הבנק שלו.
העברת הכסף נועדה לצורך ביטול המעצר הדיגיטלי או לצורך העברת כסף למקום בטוח.
במקרים רבים ההודעה היא באמצעות שיחת וידאו. שיחת הוידיאו כוללת מסמכים מזויפים ברמה מקצועית ושימוש בלוגואים של רשויות אכיפה פיננסית.
רבים מתפתים ונותנים פרטים על חשבון הבנק (כולל סיסמאות OTP) ו/או מעבירים כסף.
בכתבה של רן קידר בביזפורטל ב-5.12.25 נכתב שבשנת 2025 "היא נחשבת להונאה הפיננסית המתוחכמת, המסוכנת והרווחית ביותר בהיסטוריה האנושית. הנזקים שהיא גורמת מוערכים בעשרות מיליארדי דולרים לשנה".
שילוב של טכנולוגיות מתקדמות, מניפולציות פסיכולוגיות ותצוגה חיצונית הנראית מציאותית.
נכון להיום (5.12.25) יש ערך בויקיפדיה האנגלית ואין ערך בויקיפדיה העברית. אני מתכוון לכתוב ערך כזה בויקיפדיה העברית.
קישור לערך בויקיפדיה האנגלית:
לתפיסתי הדבר החשוב ביותר הוא מודעות לסיכונים.
סיכוני הסייבר משתנים וגדלים כל הזמן. השימוש ב-AI מגדיל אותם ומשנה אותם.
בכל מקרה אי אפשר להכיר את כל הסיכונים ולכן ההגנה המיטבית היא שמירה על רמת מודעות גבוהה לסיכונים.