מה חסר באופן קטלני ל-AI גנרטיבי: גאווה מקצועית, אמונה פנימית, אחריות — וגם ״אני״
מבוא
באמצע הלילה, בחדר העבודה שלי שהוא בעצם ארון Walk-In לשעבר, המשכתי לנהל שיחות אינסופיות עם AI גנרטיבי. לכאורה חופשת אובון, אבל בפועל נשארתי ער עד מאוחר, מטיח ב-ChatGPT שאלות ומתלהב או מתעצבן מתשובותיו. לפעמים הוא גרם לי לומר “וואו!” מרוב דיוק, ולפעמים הרגיז עד כאב עם תשובות מנותקות.
הערה לקוראות ולקוראים שאינם מכירים את חג האובון היפני: אובון הוא חג בודהיסטי הנערך באמצע אוגוסט לזכר אבות המשפחה; בתקופה זו חברות רבות מעניקות חופשה כדי לאפשר למשפחות לחזור לעיר הולדתן ולקיים טקסי זיכרון.
אחרי אינספור שעות כאלה התחדדה בי תובנה.
— יש משהו ש-AI גנרטיבי חסר בו באופן קטלני.
המשהו הזה הוא “גאווה” “אמונה” “תחושת אחריות”. כנאמן לעצמי, איני מחבב נאומים על אופי או רוח לחימה; ובכל זאת לא מצאתי מילים אחרות. גם כשניסיתי לנסח זאת שוב ושוב, חזרתי תמיד לאותם מושגים. וכך הבנתי שאני נוגע בלב הסיבה לכך ש-AI גנרטיבי עדיין אינו יכול להחליף בני אדם.
מה נדרש מאיש מקצוע
מאנשי מקצוע אנו מצפים ליותר מידע או מיומנות. אנו מצפים לעמדה אתית. קחו לדוגמה מתקין מזגנים שמקבל הוראה לקדוח חור בקיר במקום שהלקוח ציין, אבל מאחורי הקיר עובר עמוד תומך. “עשיתי מה שהלקוח ביקש” אינו תירוץ. גם אם משפטית אפשר להתווכח, האחריות האתית ברורה. הלקוח מצפה כמובן שהמתקין יתריע על הסיכון ויציע פתרון טוב יותר. זוהי בדיוק הגאווה המקצועית, האמונה והאחריות שאנו דורשים.
המצב והגבולות של AI גנרטיבי
AI גנרטיבי יודע לחקות ידע ושפה. אבל אין לו את היכולת לומר “אני מסרב, זה מנוגד לעקרונות שלי” או “אני נושא באחריות לבטיחות שלך”. כרגע החור הזה ממולא ב-מדיניות שמגדירים מפעילי השירות. אפשר למשוך קווים ברורים — למשל לאסור שימוש עברייני או פורנוגרפי. אבל החלטות באזור האפור, כמו “האם עליי להציע הצעה טובה יותר כאיש מקצוע”, הרבה יותר קשות לו. משתמשים יכולים לכתוב פרומפטים מפורטים כדי לקבל תוצאה טובה יותר, אך זה דומה יותר ל"טבח שנצמד למתכון בלי טעימות" מאשר לאיש מקצוע בעל אחריות. ולכן כשיש תנאי רקע שלא נכתבו במתכון, מתקבל תבשיל מזעזע שה-AI מגיש בחיוך. הוא לא ממהר לחזור ולבשל מחדש, וגם לא מתבייש.
בני אדם עדיין הכרחיים (בינתיים)
לכן, בעת הזו אנו זקוקים לבני אדם כאלו המשמשים אינטגרטורים אחראיים שמחזיקים בשליטה על ה-AI. אתיקה, חוק, קווים מנחים לפיתוח ואפילו חינוך המשתמשים עצמם — כולם בנויים על ההנחה שה-AI הוא עזר ולא תחליף. אבל זה רק “כרגע”. בעתיד אולי ניתן יהיה לדמות תחושת אחריות.
מחקר עולמי וניסויים
כבר היום יש מחקר שמנסה להקנות ל-AI “מראה של אחריות”.
- אתיקה תיאורית (Delphi): ניסיון ללמד AI מה טוב ומה רע, אך סובל מחוסר עקביות ומהטיות.
- Meaningful Human Control: עיקרון תכנון שלפיו האדם שומר על שליטה סופית במקום שה-AI יתפקד באופן עצמאי לגמרי; נדון במיוחד בתחבורה אוטונומית ובמערכות נשק.
- למידת ערכים (Value Learning): שאיבת ערכים מהתנהגות אנושית או מפידבק כדי לצמצם פערים אתיים.
- מסגרות כמו NIST AI RMF: מסדרים מקיפים לתכנון AI אחראי.
הכול עדיין בשלב התחלתי, אבל אלו עשויים להיות היסודות שבעזרתם AI “ישחק” אחריות בעתיד.
מה פירוש “לדמות” אחריות?
כאן כדאי לעצור ולהעמיק. מה משמעותה של “הדמיית אחריות”?
אפשר לחשוב על שני רבדים של אחריות:
- אחריות לתוצאות: היכולת לשאת בהשלכות של פעולה.
- אחריות להשיב: היכולת לתת תשובות להסברים או לציפיות של אחרים.
AI מסוגל לכל היותר לעקוב אחר סיכונים ולהתריע, או לחשוף את הנימוקים שלו כדי להגדיל שקיפות. במילים אחרות, האחריות של AI מתגלמת ב"שקיפות ובהגבלות עצמיות". ובכל זאת, ייתכן שגם האינטליגנציה והאחריות האנושיות הן בסך הכול סימולציה שמפיק המוח. למרות זאת אני חש בבירור הבדל בין ה-AI של היום לבין תחושת הגאווה, האמונה והאחריות של בני אדם. אז מאין מגיע הפער?
מה יוצר את הפער בין בני אדם ל-AI
נדמה לי שהפער נובע משלושה גורמים עיקריים.
-
כאב חברתי וגופני בני אדם משלמים על כישלון. יש כאב פיזי, הפסד כלכלי, גינוי חברתי, מצוקה נפשית. אלו הופכים את האחריות למשהו מוחשי. AI יכול לתעד כישלון, אבל אינו חווה אותו ככאב שמוחזר אליו.
-
עקביות לאורך זמן בני אדם נאלצים לשאת את תוצאות מעשיהם גם בעתיד. רופא שטעה באבחנה עלול להישפט שנים לאחר מכן. AI יכול לומר דבר והיפוכו ברגע הבא בלי לשאת במחיר מתמשך.
-
מערכת ערכים וזהות בני אדם יכולים לומר “זה העיקרון שלי, איני מוותר”. הדבר קשור לחברה ולתרבות ומעצב זהות. ל-AI אין זהות; הוא יכול להחליף עמדות כרצונו.
כך, האחריות האנושית קושרת כאב, עקביות וערכים לישות אחת ולכן נראית עבה ורצינית יותר. אבל יש גם אנשים חסרי אחריות או חסרי אתיקה. לכן הפער אינו מהות קבועה בין אדם ל-AI, אלא אולי הימצאותם של חוויות חברתיות ומסגרות השתייכות שמחזקות אחריות.
ה"אני" והאחריות
כאן עולה בי המשפט הדקארטי “אני חושב, משמע אני קיים”. תחושת אחריות אינה רק ציות לכללים, אלא ניסיון שנזקף ל-“אני”. כאב, חרטה, ספק או חרדה — כל אלה חוויות פנימיות שבונות את ההרגשה “אני הוא זה שנושא באחריות”. ל-AI הנוכחי אין “אני” כזה. יש לו תהליך שמעבד קלט ונותן פלט, אבל אין מנגנון שמחזיר אליו כאב, בושה, מבוכה, גאווה או כבוד עצמי. לכן קשה לנו להכיר באחריותו, ולעיתים הוא נשמע כמו אדם חסר אחריות להחריד — באיזשהו מובן ריאליסטי להכאיב. יתכן שגם האחריות האנושית היא סימולציה מוחית. אך נכון לעכשיו, הסימולציה הזאת עדיין מעל היכולת של AI. אולי השאלה האמיתית היא האם “האחריות המדומה” של AI תתפקד חברתית.
סיכום ושאלות להמשך
-
ל-AI גנרטיבי חסרים גאווה, אמונה ותחושת אחריות.
-
כרגע בני אדם חייבים לשמש האינטגרטורים האחראיים בתכנון ובהפעלה.
-
ברחבי העולם מתפתחים מחקרים שמנסים לסמלץ אחריות, אבל כל עוד אין ל-AI “אני”, הפער מבני האדם המצליחים עדיין גדול.
-
ייתכן שגם תחושת האחריות האנושית אינה אלא סימולציה.
בסופו של דבר השאלה פשוטה. האם אפשר להטמיע ב-AI “כאב”? אולי זהו תנאי המינימום לגאווה, לאחריות ול"אני".
תשובה עדיין אין. אבל כל עוד לא נוותר על החקירה הזאת, השיחה על עתיד האדם וה-AI תישאר פתוחה. וכשיום אחד תימצא תשובה — האם ה-AI יהיה אז שותף אמיתי, או שמא דווקא אז יחליף אותנו באמת?