חוק הבינה המלאכותית של האיחוד האירופי
- Admin
- 27 ביולי
- זמן קריאה 5 דקות

ערך: אריה עמית
מקור: European Commission
27.7.2025
האיחוד האירופי פרסם החודש קוד התנהגות בנושא בינה מלאכותית למטרות כלליות כדי לסייע לאלפי עסקים בגוש 27 המדינות המשתמשים בטכנולוגיה לעמוד בספר החוקים פורץ הדרך של הגוש בתחום הבינה המלאכותית.
קוד האיחוד האירופי הוא וולונטרי ומשלים את חוק הבינה המלאכותית של האיחוד האירופי, מערכת מקיפה של תקנות שאושרה בשנה שעברה ונכנסת לתוקף בשלבים
הקוד מתמקד בשלושה תחומים: דרישות שקיפות מספקי מודלים של בינה מלאכותית המעוניינים לשלב אותם במוצריהם; הגנות על זכויות יוצרים; ובטיחות ואבטחה של מערכות הבינה המלאכותית המתקדמות ביותר.
חוק הבינה המלאכותית הוא המסגרת המשפטית הראשונה אי פעם בנושא בינה מלאכותית, אשר עוסקת בסיכונים הכרוכים בבינה מלאכותית וממצבת את אירופה כבעלת תפקיד מוביל בעולם.
חוק הבינה המלאכותית (תקנה (EU) 2024/1689 הקובעת כללים הרמוניים בנושא בינה מלאכותית הוא המסגרת המשפטית המקיפה הראשונה אי פעם בנושא בינה מלאכותית ברחבי העולם. מטרת הכללים היא לטפח בינה מלאכותית אמינה באירופה.
חוק הבינה המלאכותית קובע מערכת ברורה של כללים מבוססי סיכון עבור מפתחי ומפעילי בינה מלאכותית בנוגע לשימושים ספציפיים של בינה מלאכותית. חוק הבינה המלאכותית הוא חלק מחבילה רחבה יותר של צעדי מדיניות לתמיכה בפיתוח בינה מלאכותית אמינה, הכוללת גם את חבילת החדשנות בתחום הבינה המלאכותית , השקת מפעלי בינה מלאכותית ואת התוכנית המתואמת לבינה מלאכותית . יחד, צעדים אלה מבטיחים בטיחות, זכויות יסוד ובינה מלאכותית ממוקדת אדם, ומחזקים את הקליטה, ההשקעה והחדשנות בבינה מלאכותית ברחבי האיחוד האירופי.
כדי להקל על המעבר למסגרת הרגולטורית החדשה, השיקה הנציבות את הסכם הבינה המלאכותית , יוזמה התנדבותית שמטרתה לתמוך ביישום עתידי, ליצור קשר עם בעלי עניין ולהזמין ספקי ופורסי בינה מלאכותית מאירופה ומחוצה לה לעמוד בהתחייבויות המרכזיות של חוק הבינה המלאכותית מראש.
למה אנחנו צריכים כללים בנוגע לבינה מלאכותית?
חוק הבינה המלאכותית מבטיח שאזרחי אירופה יוכלו לסמוך על מה שיש לבינה המלאכותית להציע. בעוד שרוב מערכות הבינה המלאכותית מהוות סיכון מוגבל עד ללא סיכון כלל ויכולות לתרום לפתרון אתגרים חברתיים רבים, מערכות בינה מלאכותית מסוימות יוצרות סיכונים שעלינו לטפל בהם כדי למנוע תוצאות לא רצויות.
לדוגמה, לעתים קרובות לא ניתן לגלות מדוע מערכת בינה מלאכותית קיבלה החלטה או תחזית ונקטה בפעולה מסוימת. לכן, ייתכן שיהיה קשה להעריך האם מישהו נפגע מעמד של נחיתות בלתי הוגנת, כגון בהחלטת גיוס או בבקשה לתוכנית לתועלת הציבור.
למרות שהחקיקה הקיימת מספקת הגנה מסוימת, היא אינה מספיקה כדי להתמודד עם האתגרים הספציפיים שמערכות בינה מלאכותית עלולות להציב.
גישה מבוססת סיכון
חוק הבינה המלאכותית מגדיר 4 רמות סיכון עבור מערכות בינה מלאכותית:

סיכון בלתי מתקבל על הדעת
כל מערכות הבינה המלאכותית הנחשבות לאיום ברור על ביטחונם, מחייתם וזכויותיהם של אנשים אסורות. חוק הבינה המלאכותית אוסר שמונה פרקטיקות , דהיינו:
מניפולציה והונאה מזיקות המבוססות על בינה מלאכותית
ניצול מזיק של פגיעויות מבוססות בינה מלאכותית
ניקוד חברתי
הערכת סיכון או ניבוי של עבירות פליליות אישיות
גירוד לא ממוקד של האינטרנט או חומרי טלוויזיה במעגל סגור כדי ליצור או להרחיב מאגרי מידע של זיהוי פנים
זיהוי רגשות במקומות עבודה ובמוסדות חינוך
סיווג ביומטרי כדי להסיק מאפיינים מוגנים מסוימים
זיהוי ביומטרי מרחוק בזמן אמת למטרות אכיפת חוק במרחבים נגישים לציבור
סיכון גבוה
מקרי שימוש בבינה מלאכותית שעלולים להוות סיכונים חמורים לבריאות, בטיחות או זכויות יסוד מסווגים כבעלי סיכון גבוה. מקרי שימוש אלה בעלי סיכון גבוה כוללים:
רכיבי בטיחות של בינה מלאכותית בתשתיות קריטיות (למשל תחבורה), שכשלון שלהם עלול לסכן את חייהם ובריאותם של אזרחים
פתרונות בינה מלאכותית המשמשים במוסדות חינוך, אשר עשויים לקבוע את הגישה לחינוך ואת מסלול חייו המקצועיים של אדם (למשל, ציוני בחינות)
רכיבי בטיחות מבוססי בינה מלאכותית של מוצרים (למשל יישום בינה מלאכותית בניתוחים בסיוע רובוטים)
כלי בינה מלאכותית לתעסוקה, ניהול עובדים וגישה לעבודה עצמאית (למשל, תוכנה למיון קורות חיים לגיוס)
מקרי שימוש מסוימים של בינה מלאכותית המשמשים למתן גישה לשירותים פרטיים וציבוריים חיוניים (למשל, ניקוד אשראי המונע מאזרחים לקבל הלוואה)
מערכות בינה מלאכותית המשמשות לזיהוי ביומטרי מרחוק, זיהוי רגשות וסיווג ביומטרי (למשל, מערכת בינה מלאכותית לזיהוי רטרואקטיבי של גנב מחנות)
מקרי שימוש בבינה מלאכותית באכיפת חוק שעשויים לפגוע בזכויות היסוד של אנשים (למשל, הערכת מהימנותן של ראיות)
מקרי שימוש בבינה מלאכותית בניהול הגירה, מקלט ובקרת גבולות (למשל, בחינה אוטומטית של בקשות ויזה)
פתרונות בינה מלאכותית המשמשים בניהול צדק ותהליכים דמוקרטיים (למשל, פתרונות בינה מלאכותית להכנת פסקי דין)
מערכות בינה מלאכותית בסיכון גבוה כפופות לחובות מחמירות לפני שניתן יהיה להוציא אותן לשוק:
מערכות נאותות להערכת סיכונים והפחתת סיכונים
איכות גבוהה של מערכי הנתונים המזינים את המערכת כדי למזער את הסיכונים לתוצאות מפלות
רישום פעילות כדי להבטיח מעקב אחר התוצאות
תיעוד מפורט המספק את כל המידע הדרוש על המערכת ומטרתה כדי שהרשויות יוכלו להעריך את תאימותה
מידע ברור ומספק לפורש
אמצעי פיקוח אנושיים מתאימים
רמה גבוהה של חוסן, אבטחת סייבר ודיוק
סיכון מוגבל
זה מתייחס לסיכונים הכרוכים בצורך בשקיפות סביב השימוש בבינה מלאכותית. חוק הבינה המלאכותית מציג חובות גילוי ספציפיות כדי להבטיח שבני אדם יקבלו מידע בעת הצורך כדי לשמר אמון. לדוגמה, בעת שימוש במערכות בינה מלאכותית כמו צ'אטבוטים, בני אדם צריכים להיות מודעים לכך שהם מקיימים אינטראקציה עם מכונה כדי שיוכלו לקבל החלטה מושכלת.
יתר על כן, ספקי בינה מלאכותית גנרטורים חייבים להבטיח שניתן לזהות תוכן שנוצר על ידי בינה מלאכותית. בנוסף לכך, תוכן מסוים שנוצר על ידי בינה מלאכותית צריך להיות מתויג בצורה ברורה וגלויה, כלומר זיופים עמוקים וטקסט שפורסם במטרה ליידע את הציבור בנושאים בעלי עניין ציבורי.
סיכון מינימלי או ללא סיכון כלל
חוק הבינה המלאכותית אינו מציג כללים לבינה מלאכותית הנחשבת כבעלת סיכון מינימלי או ללא סיכון כלל. הרוב המכריע של מערכות הבינה המלאכותית הנמצאות כיום בשימוש באיחוד האירופי נכללות בקטגוריה זו. זה כולל יישומים כגון משחקי וידאו מבוססי בינה מלאכותית או מסנני דואר זבל.
איך כל זה עובד בפועל עבור ספקי מערכות בינה מלאכותית בסיכון גבוה?

ברגע שמערכת בינה מלאכותית נמצאת בשוק, הרשויות אחראיות על מעקב השוק, המטמיעים מבטיחים פיקוח וניטור אנושיים, ולספקים יש מערכת ניטור לאחר שיווק. ספקים ומטמיעים ידווחו גם על תקריות חמורות ותקלות.
פתרון לשימוש אמין במודלים גדולים של בינה מלאכותית
מודלים של בינה מלאכותית למטרות כלליות יכולים לבצע מגוון רחב של משימות והופכים לבסיס למערכות בינה מלאכותית רבות באיחוד האירופי. חלק מהמודלים הללו עלולים לשאת סיכונים מערכתיים אם הם בעלי יכולות גבוהות או נמצאים בשימוש נרחב. כדי להבטיח בינה מלאכותית בטוחה ואמינה, חוק הבינה המלאכותית קובע כללים עבור ספקי מודלים כאלה. אלה כוללים כללים הקשורים לשקיפות וכללים הקשורים לזכויות יוצרים. עבור מודלים שעשויים לשאת סיכונים מערכתיים, על הספקים להעריך ולמתן סיכונים אלה.
כללי חוק הבינה המלאכותית בנוגע לבינה מלאכותית למטרות כלליות נכנסו לתוקף באוגוסט 2025. משרד הבינה המלאכותית ניסח קוד התנהגות שמפרט כללים אלה. הקוד אמור להוות כלי מרכזי עבור ספקים להדגמת עמידה בחוק הבינה המלאכותית, תוך שילוב נהלים מתקדמים.
ממשל ויישום
המשרד האירופי לבינה מלאכותית ורשויות המדינות החברות אחראיות על יישום, פיקוח ואכיפה של חוק הבינה המלאכותית. מועצת הבינה המלאכותית, הפאנל המדעי והפורום המייעץ מכוונים ומייעצים לניהול חוק הבינה המלאכותית. למידע נוסף על ניהול ואכיפה של חוק הבינה המלאכותית .
הצעדים הבאים
חוק הבינה המלאכותית נכנס לתוקף ב-1 באוגוסט 2024, וייכנס לתוקף במלואו שנתיים לאחר מכן, ב-2 באוגוסט 2026, למעט כמה יוצאים מן הכלל:
איסורים וחובות אוריינות בינה מלאכותית נכנסו לתוקף החל מ-2 בפברואר 2025
כללי הממשל והחובות למודלים כלליים של בינה מלאכותית נכנסו לתוקף ב-2 באוגוסט 2025.
הכללים למערכות בינה מלאכותית בסיכון גבוה - המוטמעות במוצרים מוסדרים - כוללים תקופת מעבר מורחבת עד ה-2 באוגוסט 2027.





תגובות