הנכונות המוגזמת של אנשים לעשות שימוש במוצרי AI בכלל וב-ChatGPT בפרט חושפת אותם לסיכונים גדולים.
שני הקישורים להלן נותנים מושג בהקשר זה.
באתר מרכז הסייבר הלאומי:
באתר Geektime: אחרי איטליה: גם מערך הסייבר הישראלי מגבש המלצות לשימוש ב-ChatGPT.
הבעיה
משתמשים ב-ChatGPT על מנת שיבצע מטלות במקומם.
כשהם מזינים מידע פרטי משמעותי, למשל: מספר חשבון בנק, שם משתמש וסיסמה, לא בטוח שהם אינם חושפים את המידע לגורמים שיעשו במידע שימוש זדוני.
אגב, לא תמיד ניתן להעריך את גודל הסכנה של ריכוז מידע איש רב במאגר של כלי AI גם אם אין מדובר במידע שהוא קריטי.
לפעמים דפוסי המידע הרב הופכים את המידע לקריטי בגלל שילוב בין חלקי מידע לאו דווקא קריטי.
אין להוציא מכלל אפשרות גם את האפשרות של פעילות זדונית של כלי ה-AI עצמו, בין אם מי שפיתח אותו רצה בכך (למשל: GROK) ובין אם כלי ה-AI פיתח מידה של עצמאות.
אין תגובות:
הוסף רשומת תגובה