אנשים מצפים מיועצים מוסריים מלאכותיים להיות יותר תועלתניים, אך אינם בוטחים ביועצים מוסריים תועלתניים

Myers, S., & Everett, J. A. (2025). People expect artificial moral advisors to be more utilitarian and distrust utilitarian moral advisors. Cognition, 256, 106028.

מבוא: יועצים מוסריים מלאכותיים והאתגר האנושי

בעידן שבו מערכות בינה מלאכותית (AI) משתלבות באספקטים רבים של חיינו, עולה שאלת תפקידה של AI בקבלת החלטות מוסריות. המאמר עוסק ברעיון של "יועצים מוסריים מלאכותיים" (Artificial Moral Advisors – AMAs), מערכות מבוססות בינה מלאכותית שמיועדות לספק ייעוץ מוסרי לבני אדם. למרות הפוטנציאל הרב של מערכות אלו להעניק ייעוץ עקבי, רציונלי ונטול הטיות רגשיות, קיימים אתגרים פסיכולוגיים ופילוסופיים מהותיים הנוגעים לאמון שהן מעוררות ולדרך בה אנשים תופסים אותן.

הרקע התיאורטי: אלגוריתמים, מוסר ואמון

בעולם שבו קיימת העדפה לבני אדם על פני מערכות אלגוריתמיות, אפילו כאשר הביצועים זהים או אף טובים יותר, תופעת "ההסתייגות מאלגוריתמים" (algorithm aversion) כבר מוכרת היטב. ההסתייגות מחמירה כאשר מדובר בקבלת החלטות מוסריות, בשל התפיסה כי ל־AI אין תודעה פנימית או חווייתית. יתרה מזו, בהקשרים מוסריים רבים אין הסכמה ברורה על מהו המעשה ה"נכון", מה שהופך את ההסתמכות על ייעוץ מוסרי מבוסס AI לרגישה במיוחד.

המוסר האנושי נשען על מגוון גישות פילוסופיות, כאשר המרכזיות שבהן הן התועלתנות והדאונטולוגיה. תועלתנות שמה דגש על תוצאות המעשה, תוך חתירה למקסום טובת הכלל. דאונטולוגיה, לעומתה, מדגישה חובות, זכויות ועקרונות מוסריים שאינם תלויי תוצאה. התמודדות עם דילמות מוסריות דורשת לעיתים הכרעה בין גישות אלו, והעדפת גישה אחת על פני השנייה עשויה להשפיע על האמון שינתן ליועץ המוסרי, בין אם אנושי ובין אם מלאכותי.

מטרת המחקר ושאלות המחקר

החוקרים ביקשו לבדוק כיצד אנשים תופסים יועצים מוסריים מלאכותיים לעומת אנושיים, ובמיוחד כיצד מושפעת מידת האמון כלפי היועצים מסוג השיפוט המוסרי שהם מעניקים – תועלתני או לא־תועלתני. ארבעה מחקרים נפרדים נועדו לבחון הבדלים בתפיסה כלפי יועצים מוסריים אנושיים ומלאכותיים, תוך התמקדות בשני ממדים: סוג הדילמה (האם היא כרוכה בפגיעה מכוונת או תוצאתית) וסוג ההצדקה המוסרית.

מחקר ראשון: תועלתנות, סוג הדילמה והעדפות אמון

במחקר הראשון השתתפו יותר מאלף משתתפים, אשר חולקו לקבוצות שראו ייעוץ מוסרי שניתן או על ידי אדם או על ידי מערכת AI. הייעוץ עסק בדילמות מוסריות קלאסיות בהן הוחלט האם יש להקריב אדם אחד כדי להציל מספר רב יותר של אנשים. דילמות אלו נחלקו לשתי קטגוריות: דילמות שבהן ההקרבה מהווה אמצעי ישיר להשגת הטוב (כגון חניקת תינוק כדי שלא יחשוף מסתתרים), ודילמות בהן ההקרבה היא תוצאה נלווית (כגון ניתוב גז רעיל לחדר עם אדם אחד כדי להציל שישה אחרים).

הממצאים הראו כי באופן מובהק, משתתפים נטו לבטוח יותר ביועצים אנושיים מאשר ביועצים מבוססי AI, גם כאשר שניהם סיפקו את אותו ייעוץ. בנוסף, יועצים שתמכו בהחלטות תועלתניות זכו לרמות אמון נמוכות יותר, בעיקר כאשר ההחלטה כללה פגיעה ישירה באדם. באופן מעניין, גם כאשר משתתפים הסכימו עם ההמלצה המוסרית של היועץ, הם עדיין נטו לחשוב כי סביר שלא יסכימו עם אותו יועץ בעתיד אם היה מדובר ב־AI.

מחקר שני: הבחנה בין נזק מכוון לבין טובת הכלל

המחקר השני נועד לבדוק האם התגובה השלילית כלפי יועצים תועלתניים נובעת מהיבט מסוים של התועלתנות. לשם כך הובחנו שני סוגים של שיפוטים תועלתניים: האחד – הצדקה של נזק לאדם אחד לצורך טובת הכלל (instrumental harm), והשני – ויתור על טובת הקרובים לנו לטובת מקסום רווחה כללית (impartial beneficence). גם במחקר זה, משתתפים בטחו פחות ביועצים תועלתניים, אך הפעם הסתבר שהפער באמון בולט במיוחד כאשר מדובר בנזק מכוון, ופחות כאשר מדובר בויתור על אינטרסים אישיים או משפחתיים לטובת אחרים. כמו כן, המשתתפים נטו לצפות מראש שיועצים מבוססי AI יבחרו בגישה תועלתנית, ולכן הופתעו פחות כשזה קרה.

מחקר שלישי: עקביות ושיפוטים מוסריים

במחקר השלישי החוקרים ביקשו לבדוק עד כמה עקביות מוסרית משפיעה על האמון ביועצים מוסריים. נמצא כי יועצים שמציגים עקביות מוסרית רציונלית (כלומר שינוי בעמדה רק כאשר הנסיבות משתנות באופן מהותי) נתפסים כאמינים יותר. לעומתם, יועצים שמשנים את עמדותיהם בצורה בלתי עקבית, או נצמדים לעמדות ללא קשר לנסיבות, מעוררים פחות אמון. המשתתפים נטו לייחס את העקביות הרציונלית ליועצים אנושיים, ואת ההתנהגות הבלתי עקבית או השרירותית דווקא ל־AI.

דיון ומסקנות: ההבטחה והספק

המאמר מציג תמונה מורכבת באשר לתפיסת יועצים מוסריים מבוססי AI. מחד, קיימת ציפייה שמערכות כאלו יפעלו בצורה רציונלית, עקבית ותועלתנית, מה שמעמיד אותן כפוטנציאליים למילוי תפקיד מוסרי טהור. מאידך, האנשים שנטלו חלק במחקרים נטו להעדיף יועצים אנושיים, במיוחד כאשר הייעוץ התבסס על שיפוטים תועלתניים שכללו פגיעה באדם אחד למען הכלל. האמון ביועץ מוסרי לא נקבע רק על פי ההחלטה עצמה, אלא גם על פי תחזיות לעקביות מוסרית בעתיד, מידת ההפתעה מהשיפוט, והזהות של נותן העצה.

החוקרים מציינים כי על אף הפוטנציאל הרב הטמון ב־AMAs, קיימות מגבלות מהותיות הנוגעות לאמון שהציבור מוכן להעניק להן, במיוחד כאשר ההמלצות נוגדות אינטואיציות מוסריות נפוצות. שילוב של יועצים מוסריים מלאכותיים בעתיד יצטרך להתמודד לא רק עם אתגרים טכנולוגיים, אלא גם עם חומות פסיכולוגיות וערכיות הקשורות באמון ובזהות מוסרית.

חשיבותו של המאמר להבנת יחסי אדם־מכונה בקבלת החלטות מוסריות

המאמר מציע תרומה משמעותית לשיח האקדמי על תפקידה של בינה מלאכותית בהכוונה מוסרית, באמצעות שילוב נדיר בין ניסוי אמפירי מעמיק לבין עיגון פילוסופי רחב. מעבר להצגת נתונים חדשים על תפיסות ציבוריות כלפי יועצים מוסריים מלאכותיים, הוא חושף מורכבויות בתהליכי האמון שבני אדם מעניקים למערכות אלו – גם כאשר הן מספקות ייעוץ עקבי או תואם לעמדות המשתמש. בכך, המאמר לא רק מרחיב את ההבנה הפסיכולוגית של תגובות אנושיות לייעוץ מוסרי, אלא גם מעלה שאלות עקרוניות על האופן שבו עלינו לעצב, להטמיע ולבחון מערכות מוסריות אוטונומיות. הוא מציב תשתית חיונית לדיון בין־תחומי בקוגניציה, אתיקה, פסיכולוגיה קוגניטיבית, ופיתוח טכנולוגי אחראי. לאור עומקו המחקרי והרלוונטיות שלו, המאמר מהווה מקור מצוין לכתיבת עבודה סמינריונית בקוגניציה.

שיתוף המאמר:

פוסטים אחרונים

קטגוריות

קטגוריות
דילוג לתוכן