top of page

פורטל ידע

סקירת סיכונים מרכזיים של AI


אריה עמית | יועץ אסטרטגי, חבר נשיאות הלשכה

 




מהו סיכון AI

מערכות בינה מלאכותית הופכות במהירות לבעלות יכולות רבות ביותר. מודלים של AI יכולים ליצור טקסט, תמונות ווידאו שקשה להבדיל מתוכן אם נוצרו על ידי אדם. בעוד של-AI יש יישומים מועילים רבים, ניתן להשתמש בו גם כדי להנציח הטיה, להפעיל כלי נשק אוטונומיים, לקדם מידע שגוי ולבצע התקפות סייבר. אפילו כשמשתמשים במערכות בינה מלאכותית עם מעורבות אנושית, סוכני בינה מלאכותית מסוגלים יותר ויותר לפעול באופן אוטונומי כדי לגרום נזק .


כאשר בינה מלאכותית הופכת מתקדמת יותר, היא עלולה בסופו של דבר להוות סיכון מהותי או קיומי . ישנן דרכים רבות שבהן מערכות בינה מלאכותית יכולות להוות או לתרום לסיכונים בקנה מידה גדול, חלקן מפורטות להלן:


1. שימוש ככלי נשק

בשנים האחרונות, חוקרים מפתחים מערכות בינה מלאכותית להתקפות סייבר אוטומטיות. מפקדים צבאיים דנים במתן שליטה מכרעת למערכות בינה מלאכותית על מתקנים גרעיניים ומעצמות על בעולם סירבו לחתום על הסכמים האוסרים על שימוש בנשק אוטונומי.

בינה מלאכותית שהוכשרה לפיתוח תרופות הופנתה בקלות לתכנון נשק ביוכימי פוטנציאלי, , GPT-4מודל שהוכשר על טקסט וקידוד באינטרנט, הצליח לבצע באופן אוטונומי ניסויים ולסנתז כימיקלים במעבדה בעולם האמיתי . תאונה עם מערכת תגובה אוטומטית עלולה להסלים במהירות ולגרום למלחמה גדולה.

במבט קדימה, ניתן לציין שמכיוון שלמדינה עם מערכות הבינה המלאכותית החכמות ביותר עשויה להיות יתרון אסטרטגי, זה עשוי להיות מאתגר עבור מדינות להימנע מבניית מערכות נשק עם בינה מלאכותית חזקות יותר ויותר.

גם אם כל המעצמות יבטיחו שהמערכות שהן בונות בטוחות ויסכימו לא לבנות טכנולוגיות AI הרסניות, שחקנים נוכלים עדיין יכולים להשתמש בבינה מלאכותית כדי לגרום לנזק משמעותי. גישה קלה למערכות בינה מלאכותיות חזקות מגבירה את הסיכון לשימוש חד צדדי וזדוני, כמו בנשק גרעיני וביולוגי. מספיק רק שחקן אחד לא הגיוני או מרושע כדי לגרום נזק בקנה מידה עצום. בניגוד לכלי נשק קודמים, מערכות בינה מלאכותיות בעלות יכולות מסוכנות יכולות להיות מופצות בקלות באמצעים דיגיטליים.


2. הפצת מידע מפוברק

מבול של מידע שגוי שנוצר על ידי בינה מלאכותית ותוכן משכנע עלול להפוך את החברה לפחות מוכשרת להתמודד עם אתגרים חשובים של זמננו.

מדינות, מפלגות וארגונים משתמשים בטכנולוגיה כדי להשפיע ולשכנע אחרים באמונותיהם, האידיאולוגיות והנרטיבים הפוליטיים שלהם. ה AI המתעורר עשוי להביא את מקרה השימוש הזה לעידן חדש ולאפשר קמפיינים מותאמים אישית של דיסאינפורמציה בקנה מידה. בנוסף, בינה מלאכותית עצמה יכולה ליצור טיעונים משכנעים ביותר המעוררים תגובות רגשיות חזקות. יחד, מגמות אלו עלולות לערער את קבלת ההחלטות הקולקטיבית, להקצין אנשים או לפגוע בהתנהגות מוסרית.


3. משחקי פרוקסי

מערכות בינה מלאכותית מאומנות באמצעות יעדים ניתנים למדידה, שעשויים להיות פרוקסי עקיף למה שאנו מעריכים באמת . לדוגמה, מערכות המלצה מבוססות בינה מלאכותית מאומנות כדי למקסם את זמן הצפייה ואת מדדי שיעור ההקלקה. התוכן שאנשים נוטים ביותר ללחוץ עליו, לעומת זאת, אינו בהכרח זהה לתוכן שישפר את רווחתם. כמו כן, כמה ראיות מצביעות על כך שמערכות ממליצות גורמות לאנשים לפתח אמונות קיצוניות על מנת להקל על חיזוי העדפותיהם . ככל שמערכות בינה מלאכותית הופכות ליכולות ומשפיעות יותר, היעדים שבהם אנו משתמשים להכשרת מערכות חייבים להיות מוגדרים יותר בקפידה ולשלב בהם ערכים אנושיים משותפים.


4. הגברת החולשה האנושית

ככל שמערכות בינה מלאכותית חודרות לאינטליגנציה ברמת האדם, יותר ויותר היבטים של העבודה האנושית יהפכו למהירים יותר וזולים יותר לביצוע עם בינה מלאכותית. ככל שהעולם מאיץ, ארגונים עשויים לוותר מרצונם על השליטה לטובת מערכות AI כדי לעמוד בקצב. זה עלול לגרום לבני אדם להפוך לבלתי רלוונטיים מבחינה כלכלית, וברגע שה-AI הופך היבטים של תעשיות רבות לאוטומטיות, ייתכן שיהיה קשה לבני האדם להיכנס אליהם מחדש.

בעולם כזה, לבני האדם יכולים להיות מעט תמריצים לצבור ידע או מיומנויות. רבים יחשבו שעולם כזה אינו רצוי. יתר על כן, חולשה אנושית תפחית את השליטה של ​​האנושות על העתיד, ותגביר את הסיכון לתוצאות רעות לטווח ארוך.


5. יצירת קבעון ערכי

בינה מלאכותית החדורה בערכים מסוימים עשויה לקבוע את הערכים שיופצו בעתיד . יש הטוענים כי מחסומי הכניסה של המחשוב והנתונים הגדלים באופן אקספוננציאלי, הופכים את הבינה המלאכותית לכוח מרכזי. ככל שהזמן מתקדם, מערכות ה-AI החזקות ביותר עשויות להיות מתוכננות על ידי אך זמינות פחות לבעלי עניין. זה עשוי לאפשר, למשל, למשטרים לאכוף ערכים צרים באמצעות מעקב רחב היקף וצנזורה מדכאת. התגברות על משטר כזה עלולה להיות לא סבירה, במיוחד אם נהיה תלויים בו. גם אם יוצרי המערכות הללו יודעים שהמערכות שלהם משרתות את עצמן או מזיקות לאחרים, ייתכן שיש להם תמריצים לחזק את כוחם ולהימנע מהפצת השליטה.


6. השפעה על הגדרה והשגת היעדים

יכולות ופונקציונליות חדשנית יכולות להופיע באופן ספונטני במערכות הבינה המלאכותית של היום , למרות שהיכולות הללו לא היו צפויות על ידי מעצבי מערכות. אם איננו יודעים אילו יכולות יש למערכות, מערכות הופכות לקשות יותר לשליטה או לפריסה בטוחה.

יעדים יכולים לעבור שינויים איכותיים באמצעות הופעת יעדים תוך-מערכתיים . בעתיד, סוכנים עשויים לפרק יעדים קשים לטווח ארוך ליעדי משנה קטנים יותר . עם זאת, פירוק יעדים יכול לעוות את המטרה, מכיוון שהמטרה האמיתית עשויה שלא להיות שווה לסך חלקיה.

במקרים קיצוניים יותר, ניתן יהיה להשיג את המטרות התוך-מערכתיות על חשבון המטרה הכוללת. לדוגמה, חברות רבות יוצרות יעדים תוך-מערכתיים ויש להן מחלקות מתמחות שונות המנסות להשיג את יעדי המשנה הנפרדים הללו. עם זאת, מחלקות מסוימות, כמו מחלקות ביורוקרטיות, יכולות לתפוס כוח ולגרום לחברה לנסות להשיג יעדים שאינם יעדיה המקוריים.


7. מקור להטעיה והונאה

מערכות בינה מלאכותיות עתידיות עשויות להיות מטעות לא מתוך זדון, אלא בגלל שהטעיה יכולה לעזור לסוכנים להשיג את מטרותיהם. זה עשוי להיות יעיל יותר להשיג אישור אנושי באמצעות הונאה מאשר לזכות באישור אנושי באופן לגיטימי.

למערכות שיש להן יכולת להטעות יש יתרונות אסטרטגיים על פני מודלים מוגבלים וישרים. מערכות AI חזקות שיכולות להונות בני אדם עלולות לערער את השליטה האנושית.

יישומי AI עתידיים יכולים להחליף אסטרטגיות בעת מעקב ולנקוט צעדים כדי לטשטש את ההונאה שלהם מהמוניטורים המבקרים . ברגע שמערכות בינה מלאכותיות מטעות מתנקות על ידי המסכים שלהן או ברגע שמערכות כאלה יכולות לגבור עליהן, מערכות אלו עלולות לקבל "תפנית בוגדנית" ולעקוף באופן בלתי הפיך את השליטה האנושית.


8. התפתחות של התנהגות כוחנית

לחברות ולממשלות יש תמריצים כלכליים חזקים ליצור סוכנים שיכולים להשיג מערך יעדים רחב. לסוכנים כאלה יש תמריצים אינסטרומנטליים לרכוש כוח, שעלולים להפוך אותם לקשים יותר לשליטה .

בינה מלאכותית שרוכשות כוח משמעותי עלולות להפוך למסוכנות במיוחד אם היא אינה תואמות לערכים אנושיים. התנהגות של חיפוש כוח יכולה גם לתמרץ מערכות להעמיד פנים שהן מיושרות, להתחבר עם AIs אחרים, לגבור על צגים וכו. בהשקפה זו, המצאת מכונות חזקות מאיתנו היא משחק באש. בניית בינה מלאכותית שואפת כוח היא גם תמריץ מכיוון שמנהיגים פוליטיים רואים את היתרון האסטרטגי בלהחזיק במערכות הבינה המלאכותית החזקות ביותר. לדוגמה, ולדימיר פוטין אמר, "מי שיהפוך למנהיג ב-[AI] יהפוך לשליט העולם".

bottom of page