הסיכון הגדול ביותר של בינה מלאכותית בהשכלה גבוהה אינו רמאות אלא שחיקת הלמידה עצמה
- לפני 3 ימים
- זמן קריאה 5 דקות
16.03.2026

מחברים:
ניר אייזיקוביץ | פרופסור לפילוסופיה ומנהל המרכז לאתיקה יישומית, אוניברסיטת מסצ'וסטס בוסטון
יעקב ברלי | עמית מחקר זוטר, מרכז אתיקה יישומית, אוניברסיטת מסצ'וסטס בוסטון
מקור: The Conversation
הדיון הציבורי על בינה מלאכותית בהשכלה הגבוהה סובב במידה רבה סביב דאגה מוכרת: רמאות . האם סטודנטים ישתמשו בצ'אטבוטים כדי לכתוב עבודות? האם מרצים יכולים לדעת זאת? האם אוניברסיטאות צריכות לאסור את הטכנולוגיה? לאמץ אותה?
חששות אלה מובנים. אך התמקדות כה רבה ברמאות מחמיצה את השינוי הגדול יותר שכבר החל, כזה שמשתרע הרבה מעבר להתנהגות בלתי הולמת של תלמידים ואפילו מעבר להתנהגות בכיתה.
אוניברסיטאות מאמצות בינה מלאכותית בתחומים רבים בחיים המוסדיים . חלק מהשימושים הם במידה רבה בלתי נראים, כמו מערכות המסייעות להקצאת משאבים, סימון סטודנטים "בסיכון" , אופטימיזציה של תזמון קורסים או אוטומציה של החלטות אדמיניסטרטיביות שגרתיות. שימושים אחרים בולטים יותר. סטודנטים משתמשים בכלי בינה מלאכותית כדי לסכם וללמוד, מרצים משתמשים בהם כדי לבנות מטלות ותוכניות לימוד וחוקרים משתמשים בהם כדי לכתוב קוד, לסרוק ספרות ולדחוס שעות של עבודה מייגעת לדקות.
אנשים עשויים להשתמש בבינה מלאכותית כדי לרמות או לדלג על מטלות עבודה. אבל השימושים הרבים של בינה מלאכותית בהשכלה הגבוהה, והשינויים שהם מבשרים, מעלים שאלה עמוקה הרבה יותר: ככל שמכונות הופכות להיות מסוגלות יותר לבצע את עבודת המחקר והלמידה, מה קורה להשכלה הגבוהה? איזו מטרה משרתת האוניברסיטה?
במהלך שמונה השנים האחרונות, חקרנו את ההשלכות המוסריות של מעורבות נרחבת בבינה מלאכותית כחלק מפרויקט מחקר משותף בין המרכז לאתיקה יישומית באוניברסיטת UMass בוסטון לבין המכון לאתיקה וטכנולוגיות מתפתחות . במסמך עמדה שפורסם לאחרונה , אנו טוענים שככל שמערכות בינה מלאכותית הופכות לאוטונומיות יותר, כך עולה החשיבות האתית של שימוש בבינה מלאכותית בהשכלה גבוהה, וכך גם ההשלכות הפוטנציאליות שלה.
ככל שטכנולוגיות אלו משתפרות ביצירת ידע – תכנון שיעורים, כתיבת עבודות, הצעת ניסויים וסיכום טקסטים קשים – הן לא רק הופכות אוניברסיטאות לפרודוקטיביות יותר. הן מסתכנות בריקון המערכת האקולוגית של למידה וחונכות שעליה בנויים מוסדות אלו, ועליה הם תלויים.
Top of Form
Bottom of Form
בינה מלאכותית לא אוטונומית
קחו בחשבון שלושה סוגים של מערכות בינה מלאכותית והשפעתן על חיי האוניברסיטה:
תוכנה המונעת על ידי בינה מלאכותית כבר נמצאת בשימוש בכל רחבי ההשכלה הגבוהה בבדיקות קבלה , רכש, ייעוץ אקדמי והערכת סיכונים מוסדיים. מערכות אלו נחשבות "לא אוטונומיות" משום שהן הופכות משימות לאוטומטיות, אך האדם "מעודכן" ומשתמש במערכות אלו ככלים.
טכנולוגיות אלו עלולות להוות סיכון לפרטיותם ולאבטחת המידע של התלמידים . הן גם עלולות להיות מוטות. ולעתים קרובות הן חסרות שקיפות מספקת כדי לקבוע את מקורות הבעיות הללו. למי יש גישה לנתוני התלמידים? כיצד נוצרים "ציוני סיכון"? כיצד אנו מונעים ממערכות לשחזר אי שוויון או להתייחס לתלמידים מסוימים כבעיות שיש לנהל?
שאלות אלו רציניות, אך הן אינן חדשות מבחינה רעיונית, לפחות לא בתחום מדעי המחשב. באוניברסיטאות יש בדרך כלל משרדי ציות, ועדות ביקורת מוסדיות ומנגנוני ממשל שנועדו לסייע בהתמודדות עם סיכונים אלו או בהפחתתם, גם אם לעיתים הם אינם עומדים ביעדים אלו.
בינה מלאכותית היברידית
מערכות היברידיות כוללות מגוון כלים, כולל צ'אטבוטים להדרכה בסיוע בינה מלאכותית, כלי משוב מותאמים אישית ותמיכה אוטומטית בכתיבה. הן מסתמכות לעתים קרובות על טכנולוגיות בינה מלאכותית גנרטיבית , במיוחד מודלים של LLM. בעוד שמשתמשים אנושיים קובעים את המטרות הכוללות, צעדי הביניים שהמערכת נוקטת כדי להשיג אותן לרוב אינם מצוינים.
מערכות היברידיות מעצבות יותר ויותר את העבודה האקדמית היומיומית. סטודנטים משתמשים בהן כמלווים לכתיבה, מדריכים, שותפים לסיעור מוחות ומסבירים לפי דרישה. סגל משתמש בהן כדי ליצור רובריקות, טיוטות הרצאות ותכנן סילבוסים. חוקרים משתמשים בהן כדי לסכם מאמרים, להגיב על טיוטות, לתכנן ניסויים וליצור קוד.
לכאן שייך שיח ה"רמאות". כיוון שסטודנטים וסגל כאחד נשענים יותר ויותר על טכנולוגיה לעזרה, סביר לתהות אילו סוגי למידה עלולים ללכת לאיבוד בדרך. אך מערכות היברידיות מעלות גם שאלות אתיות מורכבות יותר.
אם סטודנטים מסתמכים על בינה מלאכותית גנרטיבית כדי לייצר עבודה לשיעורים שלהם, וגם משוב נוצר על ידי בינה מלאכותית, כיצד זה משפיע על הקשר בין הסטודנט לפרופסור?
אחד קשור לשקיפות. צ'אטבוטים מבוססי בינה מלאכותית מציעים ממשקים בשפה טבעית שמקשים על ההבחנה מתי אתה מתקשר עם אדם ומתי אתה מתקשר עם סוכן אוטומטי. זה יכול להיות מנוכר ומסיח את הדעת עבור אלו שמקיימים איתם אינטראקציה. סטודנט שקורא חומר למבחן אמור להיות מסוגל להבחין אם הוא מדבר עם עוזר ההוראה שלו או עם רובוט. סטודנט שקורא משוב על עבודת סמסטר צריך לדעת אם היא נכתבה על ידי המרצה שלו. כל דבר פחות משקיפות מוחלטת במקרים כאלה יהיה מנוכר לכל המעורבים ויעביר את מוקד האינטראקציות האקדמיות מהלמידה לאמצעים או לטכנולוגיה של הלמידה. חוקרים מאוניברסיטת פיטסבורג הראו שדינמיקות אלה מעוררות תחושות של חוסר ודאות, חרדה וחוסר אמון בקרב סטודנטים. אלו הן תוצאות בעייתיות.
שאלה אתית שנייה קשורה לאחריותיות ולקרדיט אינטלקטואלי. אם מורה משתמש בבינה מלאכותית כדי לנסח מטלה וסטודנט משתמש בבינה מלאכותית כדי לנסח תשובה, מי מבצע את ההערכה, ומה בדיוק מוערך? אם המשוב נוצר בחלקו על ידי מכונה, מי אחראי כאשר הוא מטעה, מרתיע או מטמיע הנחות נסתרות? וכאשר בינה מלאכותית תורמת באופן משמעותי לסינתזת מחקר או לכתיבה, אוניברסיטאות יזדקקו לנורמות ברורות יותר סביב כתיבה ואחריות - לא רק עבור סטודנטים, אלא גם עבור סגל.
לבסוף, ישנה השאלה הקריטית של פריקה קוגניטיבית. בינה מלאכותית יכולה להפחית את העבודה הקשה, וזה לא רע מטבעו. אבל היא יכולה גם להסיט משתמשים הרחק מהחלקים בלמידה שבונים יכולת, כמו יצירת רעיונות, התמודדות עם בלבול, עריכת טיוטה מגושמת ולמידה לאתר את הטעויות של עצמך.
סוכנים אוטונומיים
השינויים המשמעותיים ביותר עשויים להגיע עם מערכות שנראות פחות כמו עוזרים ויותר כמו סוכנים. בעוד שטכנולוגיות אוטונומיות באמת נותרות בגדר שאיפה, החלום של חוקר "בתוך קופסה" - מערכת בינה מלאכותית סוכנתית שיכולה לבצע מחקרים בכוחות עצמה - הופך מציאותי יותר ויותר.
התחכום והאוטונומיה הגוברים של מערכות טכנולוגיה משמעותם שניתן יהיה להפוך מחקר מדעי לאוטומטי יותר ויותר, מה שעלול להותיר אנשים עם פחות הזדמנויות לרכוש מיומנויות בתרגול שיטות מחקר.
כלי עבודה סוכניים צפויים "לשחרר זמן" לעבודה המתמקדת ביכולות אנושיות יותר כמו אמפתיה ופתרון בעיות. בהוראה, ייתכן שמשמעות הדבר היא שסגל ימשיך ללמד במובן המשמעותי, אך ניתן להעביר יותר מעבודת ההוראה היומיומית למערכות המותאמות ליעילות ולקנה מידה. באופן דומה, במחקר, המסלול מצביע לכיוון מערכות שיכולות להפוך את מחזור המחקר לאוטומטי יותר ויותר. בתחומים מסוימים, זה כבר נראה כמו מעבדות רובוטיות הפועלות ברציפות , הופכות חלקים גדולים מהניסויים לאוטומטיים ואף בוחרות בדיקות חדשות על סמך תוצאות קודמות.
במבט ראשון, זה אולי נשמע כמו דחיפה מבורכת לפרודוקטיביות. אבל אוניברסיטאות אינן מפעלי מידע; הן מערכות של פרקטיקה. הן מסתמכות על צינור של סטודנטים לתארים מתקדמים ואקדמאים בתחילת דרכם שלומדים ללמד ולחקור על ידי השתתפות באותה עבודה. אם סוכנים אוטונומיים יספגו יותר מהאחריות ה"שגרתית" ששימשה בעבר ככניסות לחיים האקדמיים, האוניברסיטה עשויה להמשיך להפיק קורסים ופרסומים תוך דילול שקט של מבני ההזדמנויות התומכים במומחיות לאורך זמן.
אותה דינמיקה חלה על סטודנטים לתואר ראשון, אם כי במנגנון שונה. כאשר מערכות בינה מלאכותית יכולות לספק הסברים, טיוטות, פתרונות ותוכניות לימוד לפי דרישה, הפיתוי הוא לפרוק את החלקים המאתגרים ביותר של הלמידה. עבור התעשייה שדוחפת את הבינה המלאכותית לאוניברסיטאות, זה אולי נראה כאילו סוג זה של עבודה הוא "לא יעיל" וכי עדיף לסטודנטים לתת למכונה לטפל בו. אבל טבעו של מאבק זה הוא שבונה הבנה עמידה. פסיכולוגיה קוגניטיבית הראתה שסטודנטים צומחים אינטלקטואלית באמצעות עבודת ניסוח, עריכה, כישלון, ניסיון נוסף, התמודדות עם בלבול ועריכה של טיעונים חלשים. זוהי עבודת הלמידה כיצד ללמוד.
יחד, התפתחויות אלו מצביעות על כך שהסיכון הגדול ביותר הנשקף מאוטומציה בהשכלה הגבוהה אינו רק החלפת משימות מסוימות על ידי מכונות, אלא שחיקה של המערכת האקולוגית הרחבה יותר של פרקטיקה אשר קיימה זה מכבר הוראה, מחקר ולמידה.
נקודת מפנה לא נוחה
אז מה המטרה של אוניברסיטאות בעולם שבו עבודת ידע הופכת לאוטומטית יותר ויותר?
תשובה אפשרית אחת מתייחסת לאוניברסיטה בעיקר כמנוע לייצור אישורים וידע. שם, השאלה המרכזית היא פלט: האם סטודנטים מסיימים את לימודיהם עם תארים? האם נוצרים מאמרים ותגליות? אם מערכות אוטונומיות יכולות לספק את התוצרים הללו בצורה יעילה יותר, אזי למוסד יש את כל הסיבות לאמץ אותן.
אבל תשובה אחרת מתייחסת לאוניברסיטה כאל משהו יותר ממכונת פלט, ומכירה בכך שערכה של השכלה גבוהה טמון בחלקו במערכת האקולוגית עצמה. מודל זה מייחס ערך פנימי לצינור ההזדמנויות שדרכן מתחילים הופכים למומחים, למבני החונכות שדרכם מפותחים שיקול דעת ואחריות, ולעיצוב החינוכי שמעודד מאבק פרודוקטיבי במקום לייעל אותו. כאן, מה שחשוב הוא לא רק האם ידע ותארים מיוצרים, אלא כיצד הם מיוצרים ואילו סוגי אנשים, יכולות וקהילות נוצרים בתהליך. בגרסה זו, האוניברסיטה נועדה לשמש לא פחות מאשר מערכת אקולוגית שמעצבת באופן אמין מומחיות ושיקול דעת אנושיים.
בעולם שבו עבודת הידע עצמה הופכת לאוטומטית יותר ויותר, אנו סבורים שאוניברסיטאות חייבות לשאול מה ההשכלה הגבוהה חייבת לסטודנטים שלה, לחוקרים בתחילת דרכה ולחברה שהיא משרתת. התשובות יקבעו לא רק כיצד תאומץ בינה מלאכותית, אלא גם למה תהפוך האוניברסיטה המודרנית.


תגובות