עד כמה צריכים להיות מודאגים מאפוקליפסה של בינה מלאכותית?
- 14 באפר׳
- זמן קריאה 4 דקות
16.04.2026

מאת מתיו ספארקס | מקור: NewSceintist
החששות שבינה מלאכותית עלולה לעלות ולמחוק את האנושות מובנים בהתחשב בתזונה הקבועה שלנו של סיפורי מדע בדיוני המתארים בדיוק את זה, אבל מה הסיכון האמיתי? מתיו ספארקס בוחן את מה שאומרים המומחים.

בינה מלאכותית סופר-אינטליגנטית שעולה ומחסלת את האנושות הייתה טרופ נפוץ במדע בדיוני במשך עשרות שנים. כעת, אנו חיים בעולם שבו נראה כי בינה מלאכותית אמיתית מתקדמת מהר יותר מאי פעם. האם זה אומר שאתם צריכים להתחיל לדאוג מאפוקליפסת בינה מלאכותית?
בניגוד לסיכונים קיומיים אחרים כמו שינויי אקלים , קשה לכמת את הסיכונים שמציבה בינה מלאכותית. אנו נמצאים בטריטוריה ספקולטיבית פשוט משום שיש לנו הרבה פחות הבנה של המצב מאשר של דפוסי אקלים.
מה שאנחנו כן יודעים בוודאות הוא שהרבה אנשים חכמים מאוד מודאגים. רבים ממנהלי חברות הבינה המלאכותית של ימינו הזהירו מפני האפשרות שבינה מלאכותית תוביל להכחדת האנושות , ואפילו חלוץ האינטליגנציה, אלן טיורינג , דיבר על עתיד שבו מחשבים הופכים לבעלי תבונה, לפני שיעקפו את היכולות שלנו ובסופו של דבר ישתלטו עליהם.
התרחיש מתרחש בערך כך. דמיינו שאנחנו נותנים לבינה מלאכותית את המשימה היחידה של פתרון בעיה גדולה ומהותית כמו השערת רימן, אחת הבעיות הלא פתורות המפורסמות ביותר במתמטיקה. היא יכולה להחליט שמה שהיא צריכה זה המון המון כוח מחשוב, וללא הגבלות של השכל הישר, להתחיל להפוך כל עצם דומם על פני כדור הארץ למחשב-על ענק אחד, ולהשאיר 8 מיליארד מאיתנו למות ברעב במרכז נתונים עצום וסטרילי. היא אפילו עשויה להשתמש בנו כחומר גלם.
עכשיו, אפשר לטעון שבתרחיש הזה, אולי נשים לב למה שהבינה המלאכותית עשתה וניתן לה דחיפה מהירה באמירה, "אגב, נראה שאתם הופכים את כל העולם למרכז נתונים, ואם זה המצב, בבקשה תפסיקו, כי אנחנו עדיין צריכים לחיות על כדור הארץ." אבל יש אנשים שעשויים להעדיף שיהיו להם אמצעי הגנה ב...מקום לאתר בעיה מסוג זה לפני שהיא מתרחשת ולמנוע כל נזק.
סופר המדע הבדיוני אייזק אסימוב הצליח להתמודד עם שלושת חוקי הרובוטיקה שלו , הראשון שבהם הוא שרובוט לא רשאי לפגוע בבן אדם, או, באמצעות חוסר מעש, לאפשר לבן אדם להיפגע.
אז, בתיאוריה, אנחנו יכולים פשוט להגיד לבינה מלאכותית לא לפגוע בנו, והיא לא תפגע, נכון? ובכן, לא. היכולת שלנו לשלב אמצעי הגנה וכללים בתוך הבינה המלאכותית היא מגושמת ולא יעילה. אנחנו יכולים להגיד למודלים הגדולים של שפה כיום לא להיות גזעניים, או לקלל,או לחשוף את המתכון לחומרי נפץ, אבל בנסיבות הנכונות, הם ימשיכו ויעשו את זה בכל מקרה . אנחנו פשוט לא מבינים מספיק טוב מה קורה בתוך מודל בינה מלאכותית כדי למנוע ממנו לעשות דברים שאנחנו לא רוצים שהוא יעשה.
אפילו אם היינו מסדרים את כל זה, עדיין יש תרחיש שבו מודל בינה מלאכותית פשוט מחליט לחסל אותנו בכוונה - תרחיש הטרמינטור או המטריקס . זה יכול להתרחש לאחר שיפורים הדרגתיים מאוד בבינה מלאכותית לאורך תקופות ארוכות, או כמעט באופן מיידי עם סינגולריות - התהליך ההיפותטי שבו...בינה מלאכותית הופכת חכמה מספיק כדי לשפר את עצמה, ואז מתקדמת במהירות ובקצב עצום, הופכת לחכמה יותר ויותר, ועוברת את האינטליגנציה האנושית כהרף עין.
ובינה מלאכותית עשויה להחליט לעשות זאת כי היא חוששת שנכבה אותה, או כי היא לא רוצה שנשלוט בה, או פשוט כי היא חושבת שכדור הארץ יהיה במצב טוב יותר בלי שנפריע ונקלקל את העניינים - תחושה שמיני בעלי חיים וצמחים רבים עשויים לחלוק אם היו מסוגלים.
זה יכול לעשות זאת באמצעות מעבדת ביולוגיה אוטומטית ליצור וירוס קטלני, על ידי הפעלת מלאי הנשק הגרעיני העולמי או על ידי בניית צבא של רובוטים קטלניים - או פשוט חטיפת אלה שממשלות כבר בונות. אולי זה אפילו יוכל לעשות משהו כל כך מרושע, חכם וערמומי שעדיין אפילו לא חשבנו עליו.
במציאות, זה עלול להיות מסובך. בינה מלאכותית אולי תרצה לחסל בני אדם, אבל יהיו לה מנופים מוגבלים למשוך בהם. כן, היא יכולה להפוך את כל הרמזורים לירוקים ולחסל כמה מאיתנו בתאונות דרכים. זה עלול לגרום להפסקות חשמל שעלולות לגרום לעוד כמה.היא עלולה להתרסק עם כמה מטוסים. אבל לחסל 8 מיליארד בני אדם, בבת אחת? לא משימה קלה. וייתכן שהיא תצטרך להדוף מודלים אחרים של בינה מלאכותית שמנסים למנוע מתוכניותיה הרצחניות להצליח.
בעוד שרבים מהתרחישים הללו נראים כמו מדע בדיוני בלתי אפשרי או ניסויי מחשבה בלתי סבירים , מומחים חלוקים בדעותיהם לגבי מידת הסבירות שלהם. וזה כשלעצמו צריך לגרום לנו לחשוב.
כרגע, חברות עם השקעות עצומות, משאבים אדירים וצוותים של כמה מהאנשים המבריקים ביותר על פני כדור הארץ מתחרות בבניית בינה מלאכותית סופר-אינטליגנטית. בין אם אתם חושבים שזה יקרה בקרוב או לא, ובין אם יהיו לזה תוצאות שליליות או לא, אולי נוכל להסכים שאם יש אנשים שכן, אז אולי כדאי להאט ולחשוב היטב לפני שממשיכים הלאה. למרבה הצער, קפיטליזם אינו מערכת שטובה בשקילת ההשלכות היטב לפני חדשנות, ונראה שהפוליטיקאים של היום כל כך נלהבים מהיתרונות הכלכליים הפוטנציאליים של בינה מלאכותית שרגולציה אינה בראש סדר העדיפויות.
אז, מה הסבירות לאסון? מאמר משנת 2024 שסקר כמעט 3000 חוקרי בינה מלאכותית שפורסמו גילה שיותר ממחציתם חשבו על הסיכוי לאסון.גרימת הכחדה אנושית או חוסר כוח קבוע וחמור - מה שנקרא p(doom) או הסתברות לאבדון - הייתה לפחות 10 אחוזים. אני לא יודע מה איתכם, אבל באמת הייתי מעדיף שהמספר הזה יהיה הרבה יותר קטן.
יש אנשים שעובדים על בינה מלאכותית שאופטימיים לגבי העתיד, ויש מומחים שחושבים שזה יהיה סוף האנושות. באופן מדאיג, אנחנו עושים את זה בכל מקרה.
באופן אישי, אני סבור שאין שום דבר קסום מטבעו במוח האנושי ובתודעה שלנו; בוודאי, אין זה דבר שלא ניתן לשכפלו באופן מלאכותי. לכן, בטווח זמן ארוך מספיק, נ...כנראה ייצרו בינה מלאכותית שעולה בהרבה על יכולתם של בני אדם. אבל אני גם חושב שאנחנו עוד רחוקים מאוד מהבנה של מה זה בכלל כרוך בו, שלא לדבר על השגתה.
אני בהחלט לא מאמין שהמודלים הנוכחיים קרובים בכלל למדרון החלקלק של סינגולריות - הם אפילו לא יכולים לספור עד 100 בצורה אמינה - ואני לא מאבד שינה מכל העניין.
אבל – וזה אבל גדול – זה לא אומר שבינה מלאכותית לא מביאה בעיות מיידיות.
אולי אפוקליפסת הבינה המלאכותית שאנחנו צריכים לדאוג לגביה היא למעשה אובדן מקומות עבודה עצום שנגרםעל ידי אוטומציה, או אובדן הדרגתי של מיומנות אנושית ככל שהבינה המלאכותית משתלטת על יותר ויותר משימות, או הומוגניזציה נוספת של התרבות, הנובעת מאמנות, מוזיקה וקולנוע שנוצרו על ידי בינה מלאכותית.
או שאולי מדובר במיתון עולמי שנגרם מקריסת מחירי המניות של חברות טכנולוגיה ששכנעו משקיעים למסור מיליארדים עם הבטחות מנופחות למכונות סופר-אינטליגנטיות שנמצאות שנים קדימה יותר ממה שנטען. התרחישים האלה נראים לי הרבה יותר סבירים, והרבה יותר קרובים.


תגובות