יום שישי, 12 בדצמבר 2025

תמיכה מדעית בטענה שלי על הטיות במזיד בכלי AI



אחד מסיכוני הבינה המלאכותית שאני מדבר עליהם בהרצאה שלי על סיכוני בינה מלאכותית הוא הטיה במזיד. 

אני מביא כדוגמה Bot של X

הבוט, הנקרא Grok, אומר שחבל שהיטלר לא השתלט על ארצות הברית במלחמת העולם השנייה כי אז הייתה נמנעת הגירה לארה"ב והגיוון של הוליווד היה נעלם.  

הטענה שלי היא, שאם מישהו אינו מכיר את העובדות,  ולצערי יש בעולם הרבה אנשים כאלה, ויש לו ניסיון חיובי עם Grok במענה לשאלות אחרות, הוא עלול להשתכנע שיש אמת בדברי הבוט על היטלר ולפעול בהתאם. 

טענתי שזה מקרה קיצון. במקרים פחות קיצוניים, אנשים עלולים להאמין ביתר קלות לטענות מופרכות של כלי AI. גם לטענות מופרכות במזיד.  

בעיתון "הארץ" מ-12.12.25 מופיעה כתבה של מאיה רומן. כותרת הכתבה "מחקרים: שיחה עם בינה מלאכותית עשויה לשנות במידה רבה עמדות פוליטיות של בוחרים


הכתבה מתיארת שני מאמרים מדעיים שפורסמו ב-Science וב-Nature

שני המאמרים עוסקים בשינויים בעמדות בהשפעת שיחת Chat עם Bot. 

הבוטים מסתמכים על מידע שגוי, לפעמים שגוי במזיד. 

המאמר ב-Nature מתאר תוצאת מחקר בו השתתפו 2,300 אזרחים אמריקאים, מראה כי 2%-3% מהמצביעים בארה"ב שינו את עמדתם הפוליטית בעקבות חשיפה לבוטים. 

אותו מחקר בפולין ובקנדה מצא שינוי עמדות אצל כ-10% מהמשתתפים. 

 

על פי המאמר ב- Science, ככל שמודלי השפה של ה-AI אומנו לספק עובדות רבות יותר כך הם נטו לשקר יותר. 



עתיד לא ורוד



בהרצאות ובפוסטים שלי אני עושה הקבלות בין AI של היום והאינטרנט בתחילת דרכו. 

אני מהדור שחווה את בועה הדוט קום בזמן אמת

על בועת AI דיברתי הרבה לפני שסם אלטמן דיבר עליה. 


ההקבלה לא מסתיימת בבועה. 

היא נמשכת גם למשהו שהתחיל יפה (כללי ההתנהגות והנימוס באינטרנט בתחילת דרכו, למי שהיה שם וזוכר) והיום מוצף בשקרים, באי-כיבוד פרטיות ובפרסומות. 

אני רואה כבר תחילת דרך דומה ב-AI.


יום רביעי, 10 בדצמבר 2025

סיכונים בניתוחים בבתי חולים

 


שלשום (8.12.25) ראיתי בשידור חי ניתוחי לב מורכבים ומסובכים בבית החולים תל השומר. 

בנוסף להסברים שנתנו המנתחים בזמן אמת, ישבו על הבמה כמה מומחים מובילים בתחום שהוסיפו הסברים ודגשים שלהם. 

קשה היה שלא להתרשם מההתקדמות הגדולה בתחום ומהיכולות המרשימות של מומחי תל השומר. 

מדובר בניתוחים הנקראים TAVR המחליפים ניתוחי לב פתוח. 


לא היכרתי את המושג בחיפוש במחשב בבית קיבלתי את ההסבר הבא בסקירת AI של Google:

"TAVR הוא קיצור של החלפת מסתם אבי העורקים דרך צנתר (Transcatheter Aortic Valve Replacement), פרוצדורה רפואית המאפשרת להחליף מסתם אבי העורקים פגום באמצעות צנתר, במקום ניתוח לב פתוח. הניתוח פחות פולשני ומתבצע לרוב דרך חתך קטן במפשעה, ללא פתיחת בית החזה."


אין לי ידע רפואי והשכלה רפואית ולכן אני כותב על רפואה רק בהקשרים עם נושאים שאני כן מבין בהם. 


בבלוג שלי על כלכלת המשפחה כתבתי על קבלת החלטות של רופאים.   

בנושא של הטיות קוגניטיביות בקבלת החלטות אני מבין משהו, אחרי שלמדתי    

עליו לא מעט בלימודיי לתואר שני בפסיכולוגיה באוניברסיטה העברית בירושלים. 

כמו כל אחד אחר, גם לרופאים יש הטיות כאלה בקבלת החלטות. נושא שקראתי עליו
בספרו של הרופא ד"ר ג'רום גורפמן, שתורגם לעברית.  


בהקשר הזה, מעניין במיוחד הפוסט בו כתבתי על ויכוח רפואי שלי עם רופא בבית חולים על השאלה האם לבצע ניתוח קיסרי או לא? 

אל תטעו, אני לא מבין ברפואה וזה המקרה היחיד בו התווכחתי עם רופא על נושא רפואי. 

אני צדקתי בויכוח הרפואי הזה. 

לא הייתי היחיד שחשב כך. את כל מה שאמרתי שמעתי משני רופאים, באופן בלתי תלוי, בפגישות לפני הניתוח. 
הראשון היה מנהל המחלקה באותו בית חולים והשני סגנו. 

העובדות בשטח הצביעו על כך ששני הפרופסורים לרפואה צודקים הרופא הלא בכיר טועה. 

מה שיותר רלבנטי הוא בהקשר של הכותרת של פוסט זה. בניהול סיכונים יש לי הרבה ידע וניסיון.

לרופא הלא בכיר לא היה צל של מושג בניהול סיכונים. 

צריך לחשוב על הסיכון במקרה שאתה טועה. 

אם שני הפרופסורים טועים, יתבצע ניתוח קל ופשוט יחסית שלא לצורך. 

אם הרופא הזוטר טועה, יגרם אסון נורא. 


בוצע בהצלחה ניתוח קיסרי. 

איני זוכר כמה זמן עבר ממנו ועד שראיתי באחד העיתונים ידיעה שהרופא הלא בכיר הזה הורשע בבית משפט ברשלנות רפואית.



ניהול סיכונים בהקשר של ניתוחי הלב שהוצגו



מנתחי הלב בתל השומר ופנל המומחים אינם דומים לרופא הזוטר, שהוזכר בפסקה הקודמת. 

הם התיחסו ברצינות לסיכונים והרבו להזכיר אותם במהלך שידור הניתוחים. להלן מספר סיכונים שעלו.


מחלות רקע


למנותחות יש מחלות רקע . צריך להתיחס לסיכונים שנובעים ממחלות הרקע. 



המנותחות בגיל מבוגר


הגיל מהווה גורם סיכון. בניתוחים אלה היו חולות מעל לגיל 70.



מורכבות הניתוח מזווית של החולה


זהו ניתוח מורכב הדורש רמת מקצועיות גבוהה. ניתוח פשוט ומוכר אפשר לבצע בכל בית חולים. 

בניתוח מורכב לחולה כדאי להיות מנותח בבית חולים ברמה גבוהה של מקצועיות כמו תל השומר. 



חדשנות הניתוח


ככל שהניתוח חדשני יותר הצטבר פחות ניסיון. עדיף לבחור בית חולים שבו הצטבר ניסיון גדול יחסית בתחום. 

אם אפשר לבחור גם צוות מנתחים עתיר ניסיון בניתוח ספציפי זה.



תכנון הניתוח 


הוזכר שהצלחת ניתוח מורכב כזה תלויה גם בניתוח מדויק ככל האפשר לפני הניתוח.

תכנון כולל גם ניהול סיכונים.



עם אילו סיכונים לא להתמודד


המנתח הראשי באחד הניתחים אמר שיש סיכון של פגיעה במוח במהלך הניתוח, שהוחלט לא להתמודד איתו. 

הסיבה לכך היא כנראה הגדלת סיכונים אחרים אם ינסו להתמודד איתו.   

סיבה אפשרית נוספת לאי התמודדות עם סיכון זה עשויה להיות היעדר Control אפקטיבי על מנת להתמודד עם הסיכון הזה. 

ניהול סיכונים הוא דינמי. המומחים דיברו על  התמודדות עם סיכון זה בניתוחים עתידיים.



ההבדל בין תהליך ניהול סיכונים שכיח לבין ניהול סיכונים במקרה זה


הבדל מהותי בין ניהול סיכונים אחרים שאני מכיר לבין ניהול הסיכונים בניתוחים הוא ציר הזמן הקצר של אירוע ניתוח. 

בציר זמן קצר כזה יש פחות זמן לאיטרציות לשיפור טיפול בסיכונים.

כמובן שכשמדובר בניתוח חירום ולא בניתוח מתוכנן מראש הקושי הזה מהותי יותר.

 


השורה התחתונה מזווית  של חולים



בניתוחים חדשניים ו/או מורכבים כדאי לבחור בית חולים ברמה גבוהה ומנתחים בעלי ניסיון רב ככל האפשר באותו ניתוח.



הערת שוליים






הוזכר גם השימוש הגדל והולך בכלי בינה מלאכותית בקרדיולוגיה.

העצה שלי היא להימנע מהסתמכות על כלי בינה מלאכותית ללא בקרה אנושית. 

למידע נוסף אפשר לצפות בהרצאה שלי על סיכוני בינה מלאכותית. לחיצה על התמונה לעיל תביא אתכם להרצאה.







יום שישי, 5 בדצמבר 2025

"ליפול ברשת": הונאת מעצר דיגיטלי Digital Arrest scam



זוהי אחת מהונאות הסייבר המזיקות והמתוחכמות ביותר. 

מקורה של הונאה זו בהודו. משם היא התפשטה לעולם כלו. זוהי הונאה חדשה יחסית שהחלה בהודו בשנת 2023.


המותקף מקבל הודעה שהוא מצוי במעצר דיגיטלי ונמצא בחקירה ועלול לעמוד למשפט. 

הוא מתבקש להעביר כסף ו/או להעביר פרטים מזהים של חשבון הבנק שלו. 

העברת הכסף נועדה לצורך ביטול המעצר הדיגיטלי או לצורך העברת כסף למקום בטוח. 


במקרים רבים ההודעה היא באמצעות שיחת וידאו. שיחת הוידיאו כוללת מסמכים מזויפים ברמה מקצועית ושימוש בלוגואים של רשויות אכיפה פיננסית. 


רבים מתפתים ונותנים פרטים על חשבון הבנק (כולל סיסמאות OTP) ו/או מעבירים כסף. 


בכתבה של רן קידר בביזפורטל ב-5.12.25 נכתב שבשנת 2025 "היא נחשבת להונאה הפיננסית המתוחכמת, המסוכנת והרווחית ביותר בהיסטוריה האנושית. הנזקים שהיא גורמת מוערכים בעשרות מיליארדי דולרים לשנה". 


מאחורי המנגנון של ההונאה


שילוב של טכנולוגיות מתקדמות, מניפולציות פסיכולוגיות ותצוגה חיצונית הנראית מציאותית. 



למידע נוסף



נכון להיום (5.12.25) יש ערך בויקיפדיה האנגלית ואין ערך בויקיפדיה העברית. אני מתכוון לכתוב ערך כזה בויקיפדיה העברית. 


קישור לערך בויקיפדיה האנגלית: 

Digital arrest scam



זווית הראייה שלי



לתפיסתי הדבר החשוב ביותר הוא מודעות לסיכונים

סיכוני הסייבר משתנים וגדלים כל הזמן. השימוש ב-AI מגדיל אותם ומשנה אותם

בכל מקרה אי אפשר להכיר את כל הסיכונים ולכן ההגנה המיטבית היא שמירה על רמת מודעות גבוהה לסיכונים.



יום שישי, 28 בנובמבר 2025

הרצאות שלי: לא הרצאות בודדות אלא סדרת הרצאות על סיכוני רשת



עד היום ניסיתי להציע בדרך כלל הרצאות שונות בנפרד. 

היות שכבר הצטבר מספר רב של הרצאות בנושא של סיכוני רשת החלטתי להציע למעוניינים סדרת הרצאות על הנושא. 


לסדרת ההרצאות הזו  אני קורא "ליפול ברשת". 

כמובן, שאפשר להזמין הרצאה בודדת ואפשר לצמצם את מספר ההרצאות באמצעות ויתור על הרצאה אחת או יותר. 


ההרצאה הראשונה: ניהול סיכונים


יש עקרונות, תפיסות ושלבים משותפים לכל ניהול סיכונים מסיכוני חציית כביש וסיכוני קנייה בסופרמרקט ועד סיכונים ברמת חומרה גבוהה לעולם כלו. 

לפני ש"צוללים" לסיכוני רשת חשוב להכיר אותם.



הרצאה שנייה: "ליפול ברשת"? - לא אני


זו ההרצאה הבסיסית בנושא ניהול סיכוני רשת. בהרצאה מוצגים: 

א. כללים ודרכים להקטין את ההסתברות להיפגע מהונאות סייבר והונאות רשת אחרות


ב. כיצד לפעול אם וכאשר "נופלים ברשת"?


ג. סוגי איומי רשת והונאות רשת בליווי דוגמאות.



הרצאה שלישית: סיכוני בינה מלאכותית


בוטים של בינה מלאכותית פועלים ברשת. פוטנציאל התועלות שלהם גדול מאוד וגם הסיכונים שהם יוצרים הם גדולים יותר ושונים מהסיכונים המוכרים לנו לפני הבינה המלאכותית.


בנוסף , סיכוני Cyber וסיכוני הונאות ברשת גדלים בגלל שימוש ב-AI, למשל באמצעות שימוש בטכניקה של Deep Fake



הרצאה רביעית: כיצד פורצים למערכות מחשב של ארגונים? ניסיון אישי



בעבר הדי רחוק פרצתי למערכות מחשב של ארגונים. לא עשיתי את זה על מנת לגנוב או על מנת לגרום נזק לארגון. 

מנהלים בארגון פנו אלי ואל אחרים על מנת שננסה לפרוץ למערכות של הארגון תמורת תשלום. 

המונח המקצועי המתאר את זה הוא: Penetration Test.

בין אם נצליח ובין אם ניכשל נוציא דוח המתאר את החולשות והבעיות באבטחת מידע של מערכות הארגון והצעות כיצד ניתן להתגבר עליהן.

מאז השתנו הטכנולוגיות אבל העקרונות הבסיסיים נותרו כפי שהיו. 

ההרצאה המרתקת הזו, מתארת את האופן בו מנסים לפרוץ למערכות מחשוב של ארגונים על סמך הניסיון האישי שלי ועל סמך חומר מקצועי שקראתי.


הרצאה חמישית: לסמוך או לסמוך על אבטחת המידע של הבנקים?



ההרצאה מציגה את היכולות והמגבלות של הבנקים באבטחת מידע. כולל סיכונים של דליפת מידע וגניבת כספים על ידי עובדים של הבנקים. 

ההרצאה מסתמכת על הניסיון העשיר שלי ביעוץ במחשוב של בנקים ועל Penetration Tests שעשיתי למערכות של בנקים באירופה. 



הרצאה שישית: תרגול מעשי


ההרצאה הזאת היא יותר תרגול מעשי בה המשתתפים יביאו מקרים בהם הם נתקלו ועלולים להיות חשודים כניסיונות למתקפות Cyber או להונאות ברשת. 

בנוסף אכין כמה תרגילים המבוססים על מקרים אמיתיים בשינוי פרטים מזהים.



לפרטים ולהזמנת הרצאות: טלפון: 054-4480616 או דוא"ל: avi.rosenthal@gmail.com.

יום שלישי, 25 בנובמבר 2025

האם הרגולציה ברשת בנושא פרטיות אפקטיביות?



אם תשאלו את ד"ר עמית זק תקבלו תשובה שלילית. 

בעיתון דה מרקר מ-21.11.25 רואיין ד"ר זק על ידי רותם שטרקמן. בכתבה מפרט ד"ר זק את הבעיה המרכזית לדעתו. 

קישור לכתבה: "לצ'אט יש את קורות החיים שלנו, הוא עורך כל טקסט שלנו ואפילו מיילים. הוא אוסף עלינו מידע עצום" 

עמית זק סיים דוקטורט במשפטים ועבד במחקר באוניברסיטה בהולנד. 

הוא קיבל סכום גדול למחקר עם היכולת לבחור היכן יבצע את המחקר ובחר לחזור לישראל לאוניברסיטה העברית בירושלים. 


המחקרים שלו עוסקים ברגולציה של פרטיות בעולם הדיגיטלי


לטענתו, החברות הגדולות מתעלמות מהרגולוציה ולקחות את הסיכון, הלא גדול, להיתפס ולהיקנס. השימוש שלהן במידע פרטי של אנשים מגדיל משמעותית את הכנסותיהן מפרסום. 

להפרות האלה יש עלות כספית לצרכנים. 


הדוגמה הפשוטה שהוא מביא זה שימוש ב-Cookies. ה-Cookies מאפשרות ריגול אחרי המשתמש. 

הרגולציה מחייבת אותם לשאול את המשתמש האם הוא מוכן שהחברה בעלת האתר תשתמש בטכנולוגיה הזו. 

65% מהחברות באירופה מתקינות Cookies למשתמשים שהשיבו בשלילה לשאלה הרגולטורית על התקנת Cookies. 

במאמר מופיעות דוגמאות מורכבות יותר. 


לדעת ד"ר זק הדרך המעשית היחידה לאכיפת רגולציה היא באמצעות שימוש בכלים דיגיטליים לאכיפה. 


כמובן, שמה שנכון לרשתות דיגיטליות נכון עוד יותר ל-Bots של בינה מלאכותית. 

הקמת רגולציה ראויה לבינה מלאכותית היא משימה מורכבת. אכיפתה מורכבת יותר ממורכבות אכיפת רגולציה ברשת דיגיטלית.

המאמר עוסק גם בהיבט הזה. 

אם תרצו לקרוא יותר על היבט זה, אתם יכולים לקרוא את המאמר בעצמכם או למצוא מקורות אחרים.

יום שבת, 22 בנובמבר 2025

כיצד תימנעו מאיבוד עבודה בעידן ה-AI העתידי?

 

צבי ג'ירפי (Gerenuk), מקור התמונה: ויקיפדיה.
הרשאת שימוש:


זכויות יוצרים   
Steve Garvie from Dunfermline
נוצר ב : 7.10.2010


מהלכים עלינו אימים שנוחלף על ידי כלי בינה מלאכותית שיבצעו במקומנו את העבודות שאנחנו מבצעים לפרנסתנו. 


ממליץ להרגיע. 

מי שיפעל נכון עשוי להמשיך לעבוד. אם לא ימשיך לעבוד, בחמש השנים הבאות זה כנראה לא יקרה בגלל כלי בינה מלאכותית, אלא מסיבות אחרות. 


דבר ראשון שחשוב לזכור, AI נמצא כרגע בשלב ה-Hype. עד שיגיע לבשלות יעבור עוד זמן רב. 


ביחד עם הפוטנציאל לתועלות יש הרבה סיכונים. אובדן מקומות עבודה אינה בין הסיכונים בדרגת החומרה הגבוהה ביותר


אתם מוזמנים להקשיב להסכת במסגרת "חיות כיס" של "כאן 11" בו שאול אמסטרדמסקי מראיין את מאיר ברנד

מאיר ברנד היה מנכ"ל גוגל ישראל כשהיו בה 3 עובדים. היום הוא סגן נשיא בחברת Google העולמית, ומנהל השווקים המתעוררים ב-EMEA (אירופה, המזרח התיכון ואפריקה). 


ברנד מדבר על שלוש מהפכות שהתרחשו בעבר ורבים וטובים דיברו על החלפת עובדים אנושיים באמצעים אחרים.

התוצאה בפועל הייתה הפוכה: מספר העובדים גדל. רבים מהם עשו בעבודה דברים שונים ממה שעשו לפני המהפכה. 

המפכות היו: המהפכה התעשייתית, האינטרנט ומהפכת הסלולר

להערכתו תופעה דומה צפויה גם במהפכת ה-AI. 

כמו שאנשים למדו להשתמש בתעשייה, באינטרנט ובטלפונים ניידים כחלק מהכישורים הבסיסיים הנדרשים, כך הם ידרשו בעתיד לדעת לעבוד עם כלי AI כחלק מעבודתם. 

למשל, לאפשר לכלי AI לבצע חלקים מהעבודה. 


דעתי דומה לדעתו של מאיר ברנד. 

גם הניסיון שלי, בעיקר ביותר מארבעים שנות עבודה בטכנולוגיית המידע והמחשבים, מכיל לא מעט מקרים בהם דיברו על אוטומטציה שתייתר עבודת בני אדם. ברוב המקרים לא זה מה שקרה. 


בהמשך הפוסט אציג את ניסיוני כמי שנחשף ל-AI כבר בשנות ה-70 ועוד יותר בשנות ה-80 של המאה הקודמת וגם את ניסיוני בטכנולוגיות ותפיסות אחרות. 



בחינת מוצרי מפעיל אוטומטי



כמנהל בתחום מערכות הפעלה בחנתי בתחילת שנות ה-90 של המאה הקודמת מוצרי הפעלה אוטומטית. 

אגב, בדומה לפחדים היום ממוצרי AI, מפעילי המחשב חששו שמפעיל אוטומטי יגרום להם לאובדן עבודתם. 

הייתי צריך לשכנע אותם שמדובר בכלי שייעל את עבודתם ולא בכלי שיחליף אותם. 


חברת האנליסטים Gartner דירגה שני מוצרי תוכנה בתחום זה כטובים ביותר. 

לכל אחד מהם היה אירגון גדול שיישם את המוצר בהצלחה ודיבר איתי על ניסיונו החיובי עם המוצר. 

בנסיעת עבודה לארה"ב נפגשתי עם חברה שהציגה לי מוצר אחר בתחום זה. 


מי שהציג את המוצר דיבר איתי על כך שהמוצר שלהם, בשונה ממוצרים אחרים, משתמש ב-AI. 

כשהוצגה הפונקציונאליות של המוצר, שאלתי האם המוצר יודע לבצע סוגי פונקציונאליות מסוימים? 

לטעמי הם הכרחיים במוצר כזה ומתחריו המובילים מבצעים אותם. 

קיבלתי תשובות שליליות על חלק גדול משאלותיי.


לקח: זה שיש מוצר AI לא אומר שהוא מסוגל לבצע בהכרח עבודה באופן סביר.



כלי CASE וטכנולוגיות אחרות



CASE הו ראשי תיבות של Computer-aided software engineering במשך שנים ארוכות חשבו שהם יחליפו מתכנתי מחשב. זה לא קרה. 


השיח של החלפת מתכנתים אנושיים בתוכנה חזר גם בהקשר של כלי מידול, למשל כלי תוכנה במתודולוגיית UML

גם במקרה זה הם לא החליפו מתכנתים. הם כן עזרו למתכנתים על ידי בניית שלדי תוכנה שקיצרו את זמן הפיתוח. 


השיח הזה חזר גם בהקשרים של כלים ותפיסות נוספים, שלא אפרט כאן.



תהליך אוטומציה מייתר משרות



ללא קשר לבינה המלאכותית של היום, כבר ראינו משרות שמתייתרות בגלל התקדמות טכנולוגית. 


גם בבלוג זה התייחסתי לנושא זה בכמה פוסטים, למשל: מקצועות מתיתרים: קופאי במרכול או מה תעשה כשתהייה גדול: בנקאי או איש Fintech?


יש הבדל בין קופאיות במרכול לבין עובדי בנקים. קל לדמיין מודל של סופרמרקטים ללא קופאיות. הרבה יותר קשה לתאר בנקים ללא עובדים.


מספר עובדי הבנקים, בארץ ובארצות אחרות, מצטמצם בגלל שימוש הולך וגובר בערוצי שירות עצמי ובגלל "שחקנים" חדשים המתחרים בשירותי הבנקים. 

הצמצום הוא בעיקר בסניפים. יש עובדי בנקים עם כישורים שאין לתוכנה.

יש תהליכים בנקאיים שנדרש לבצע בהם אישור ידני של אדם. 



המפתח להמשך עבודה: הסתגלות לשינויים



לפני קצת יותר מ-20 שנים השתתפתי בטיול ספארי בקניה. 

המקום המרתק ביותר היה סאמבורו. הייחוד של סאמבורו הוא שהיא נווה מדבר קטן. 

הצבי הג'ירפי שבתמונה בתחילת הפוסט היה אחד מאלה שהיו צריכים להסתגל לתנאים המיוחדים. 

בעוד צבי באיזור ספארי אחר יכול לאכול עלים הנמצאים בגובה נמוך, בסאמבורו צריך להגיע לענפים גבוהים על עצים על מנת לאכול עלים. 

כפי שאתם רואים בתמונה, הצבי הסתגל והפך למשהו שבין ג'ירפה לצבי. 


העולם משתנה כל הזמן ובקצב מהיר. 

גם עולם העבודה. 

עובדים צריכים להתאים את עצמם לתנאים המשתנים כמו שהצבי הג'ירפי התאים את עצמו לסאמבורו.



התאמה של עובדים לעולם הבינה המלאכותית



1. עובדים צריכים להכיר וללמוד כלי בינה מלאכותית שעשויים לעזור להם בעבודתם. 

עליהם להבין כיצד ניתן לשלב את הכלים בתהליכי עבודה. 


2. עובדים צריכים להכיר את המגבלות של כלי בינה מלאכותית.

אסור להסתמך על כלי בינה מלאכותית בלי לבדוק אותם.


3. עובדים צריכים להבין שלא כל כלי הבינה המלאכותית נולדו שווים. 



4. זמישות (Agility)  


יכולת להתאים את עצמם מבחינת תחום עיסוק, היקף משרה, אופן העסקה ותפקיד. 

יום שבת, 8 בנובמבר 2025

בדרך ל-Dark AI?

 

שכבות האינטרנט. ה-www מהווה אחוז גדול מהאינטרנט, אך לא את כולו, שכן ישנם גם אתרי Darknet הניתנים לגישה רק בתוכנות ייעודיות. מקור התמונה: ויקיפדיה. 
הרשאת שימוש: נחלת הכלל


האינטרנט בתחילת דרכו בסוף שנות ה-90 של המאה הקודמת הציג תקווה לעתיד טוב יותר. 
היו כללי נימוס, כללי התנהגות וכללי דיבור. 

יותר מ-25 שנים אחרי זה יש אינטרנט שונה. חלק מהאינטרנט, יש לומר חלק שבו נעשה שימוש רב, הוא ה-Darknet. בו ניתנים שירותי פשיעה, פורנוגרפיה ומין. 

חברות המנהלות רשתות חברתיות, למשל Facebook, משתמשות במידע אישי של לקוחות לצורך פרסום מטורגט על בסיס המידע. 

הן עלולות גם למכור מידע אישי של לקחות ללא בקשה ללקוחות לאשר העברת מידע כזה. 

מומחים, כביכול, המשתמשים בטכניקות בינה מלאכותית של Deep Fake, מתחזים למומחים אמיתיים ומציעים שירותים או מוצרים בשמם (למומחה האמיתי אין קשר כלשהו למעשה ההונאה). 


על פי המאמר של מעיין כהן-רוזן בכלכליסט ב- 7.11.25 גם בבבינה מלאכותית, אנחנו בדרך לשירותים מפוקפקים באמצעות כלי AI. מי יודע אולי לרשת אפלה של בוטים?

קישור למאמר: SexGPT.


המאמר נקרא בשם זה משום שהוא מתחיל בציטוט מראיון עם סם אלטמן מנכ"ל OpenAI, יצרנית ChatGPT. בראיון אמר אלטמן: "כחלק מהעיקרון שלנו להתייחס למבוגרים כמבוגרים, נאפשר תכנים אירוטיים ב-ChatGPT למשתמשים מאומתים מעל לגיל 18". 

המשמעות של האמירה הזו היא שאחד ממנועי הצמיחה הכלכליים העיקריים של החברה הם שירותים ארוטיים.

המאמר מתייחס לא רק לשירותים אירוטיים כחלק ממוצרי AI, אלא גם לספקי שירותי מין מקוונים באמצעות הרשת, המפתחים מנועי בינה מלאכותית לתמיכה בעסק שלהם.


לא מפתיע בכלל, שעל פי המאמר, Grok של איילון מאסק הוא אחד החלוצים בתחום של שיחות אירוטיות בתשלום עם מוצרי AI. 



ארוטיקה מקוונת וארוטקה באמצעות AI 


כמו בדברים אחרים גם בארוטיקה לבינה מלאכותית השפעות גדולות יותר מאשר לטכנולוגיות אחרות, לטוב ולרע. במקרה הזה לרע. 


ההבדלים בין ארוטיקה באמצעות AI לבין ארוטיקה ברשת: 


1. תוכנת ה-AI גם יוזמת ארוטיקה בעוד תוכנות אחרות יותר פסיביות.


2. יותר קל להיקשר לדמות שנוצרה באמצעות AI כי היא יותר מוחשית ולכן בחלק מהמקרים עלולה להיווצר תלות רגשית.

3. תוכנות ארוטיקה מבוססות AI מנסות לזכור מידע רגשי, בנוסף למידע אישי. 


מה הן יעשו עם המידע הפרטי הזה? זו שאלה אחרת. 

ממש לא הייתי חותם על זה שהן ישתמשו במידע רק בפגישה ארוטית נוספת עם אותו אדם או בפגישה ארוטית בכלל.