פורטל ידע

כלים לניהול האתיקה והסיכונים בלמידת מכונה

רו"ח טל דולב, שותף, מנהל היעוץ הטכנולוגי ב BDO

מרבית הארגונים בישראל מתנסים בשימוש בטכנולוגיות בינה מלאכותית ורובם אף פיתוחו ויישמו מודלים של למידת מכונה בתהליכי ליבה ארגוניים. שימוש בבינה מלאכותית בכלל ולמידת מכונה משובץ ביישומים שכל ארגון משתמש בהם כמו סינון דואר אלקטרוני וצ'ט בוטים וכתוצאה מכך כמעט על ארגון בארץ ובעולם עושה שימוש בבינה מלאכותית בין אם הוא מנהל אותה או מקבל אותה כחלק מתוכנת מדף אותה יישם. בינה מלאכותית מביאה איתה מגוון סיכונים חדשים לארגונים והעיקריים שבהם הם הסיכון להטיה במודל וכתוצאה מכך הפליה של לקוחות, משתמשים או עובדים והסיכון שמנגנון בקרה (בעיקר בתחום המכונות והרובוטים) מבוסס בינה מלאכותית לא יזהה סיכון לתאונה ויגרום לנזק פיזי או כלכלי.

כלי ההתמודדות המרכזיים מול סיכונים אלו הם יצירת תרבות ארגונית תומכת אשר מנחילה לארגון אתיקה רלוונטית לניהול ויישום בינה מלאכותית אחראית והוגנת וכן יישום תהליכי ניהול ובקרה אשר נועדו לנהל את הסיכון ולמנוע טעויות והטיות כתוצאה מבניה וניהול של המודל ללמידת מכונה.

רגולציה ארופאית בתחום הבינה המלאכותית תכנס לתוקף באמצע שנת 2022 ותחייב ארגונים להגדיר את רמות הסיכון של מנגנוני הבינה המלאכותית אשר משמשים אותם, לשקף לבעלי העניין את עצם השימוש בבינה מלאכותית וליצר תהליכי פיקוח וניהול סיכונים.

אנו מסייעים לארגונים ביצירת תהליכי פיקוח, בקרה וניהול סיכונים על בינה מלאכתית, יישום כלי בקרה על מודלים של למידת מכונה ואישורים מיוחדים על נאותות המודלים ועמידת הארגונים ברגולציות השונות