ניסיון להפעיל סוג זה של טרור ארע בפועל, למרבית המזל לא בהצלחה.
מדובר ב-ChatGPT 4. חודש אחרי סיום הפיתוח, אחד המפתחים גנב עותק של התוכנה ושינה את שמו ל-Chaos GPT.
כשהמטרה שלו הייתה: "To destroy humanity". לתוך העותק הלא מורשה הזה הוא העלה מידע רב ומחקר רב על יצור כורים גרעיניים.
מתוך Chaos הוא הפעיל גם Bots אחרים של AI במטרה שיספקו מידע על נושא זה.
למרבית המזל זה לא הסתיים ביצור של פצצה גרעינית על ידי גורם טרור.
מומלץ לא להפעיל את הגרסה הזו. אם אתם משתמשים ב-ChatGPT, השתמשו בגרסה רשמית של החברה שיצרה אותו.
זוהי דוגמה אחת לקלות יחסית של הפעלת טרור באמצעות בינה מלאכותית. בפוסט הבא אציג סוג אחר של טרור ש-AI עלול להקל על מימושו.
אין תגובות:
הוסף רשומת תגובה