הנחיית קבוצות בתמיכת בינה מלאכותית: פוטנציאלים מתהווים, גישות זהירות ושיקולים אתיים בעבודה סוציאלית

Wong, J. M. S. (2025). Artificial intelligence-supported group facilitation: emerging potentials, cautious approaches, and ethical considerations in social work practice. Social Work with Groups, 1-14.

הקדמה

המאמר בוחן את הפוטנציאל הגלום בשילוב בינה מלאכותית בהנחיית קבוצות במסגרת עבודה סוציאלית. לאורך השנים, טכנולוגיה שינתה את פני המקצוע, וכעת עומדת בפניו המהפכה הדיגיטלית הבאה: שילוב מערכות בינה מלאכותית גנרטיביות ודיאלוגיות כמו ChatGPT. עם זאת, מחקרים אמפיריים על השפעתן בהקשרים של עבודה קבוצתית פנים-אל-פנים כמעט ואינם קיימים. המאמר מדגיש את הצורך בגישה זהירה ואחראית, תוך שמירה על עקרונות מקצועיים ואתיים.

מסגרות תיאורטיות להבנת השילוב של בינה מלאכותית

המחברת מתבססת על שלוש מסגרות תיאורטיות מרכזיות: תאוריית המערכות, הגישה מבוססת החוזקות, ופרספקטיבת הכשירות התרבותית. תאוריית המערכות מדגישה שכל שינוי בקבוצה, כמו הכנסת טכנולוגיה חדשה, יוצר תגובות חוזרות שמשפיעות על הדינמיקה הכוללת. הגישה מבוססת החוזקות מעודדת ניצול היכולות הקיימות של חברי הקבוצה, ומבקשת לוודא שהבינה המלאכותית תעצים את הפוטנציאל האנושי ולא תחליף אותו. כשירות תרבותית דורשת בחינה זהירה של האופן שבו אלגוריתמים מפרשים מידע תרבותי, כדי למנוע הטיה או הכללות מזיקות.

הפוטנציאל התיאורטי של בינה מלאכותית בהנחיית קבוצות

המאמר מציג מספר תחומים שבהם הבינה המלאכותית עשויה לתרום להנחיית קבוצות, אך מדגיש שמרבית ההמלצות מבוססות על תיאוריה ופיילוטים מצומצמים, לא על מחקר רחב-היקף.

בינה מלאכותית עשויה לשפר את התקשורת הקבוצתית באמצעות תרגום בזמן אמת או תמלול אוטומטי, מה שעשוי להקל על שיח בקבוצות מרובות שפות. בנוסף, מערכות דיאלוג כמו צ’אטבוטים יכולות לתמוך בחברי קבוצה החווים חרדה חברתית, אך ברוב המקרים התועלת נבחנה במסגרת אינטראקציה אישית ולא קבוצתית.

כלים לניתוח שפה ורגשות יכולים לספק תובנות למנחים, לדוגמה על רמות מעורבות או תחושות של משתתפים, ולהנחות תגובה מותאמת. יכולות ההתאמה האישית של מערכות מבוססות בינה מלאכותית עשויות גם לספק תמיכה מותאמת אישית בין מפגשים, דוגמת משימות בית, תזכורות או תרגולים. מעבר לכך, הבינה המלאכותית יכולה לייעל תהליכים אדמיניסטרטיביים כמו רישום נוכחות, תמלול ויצירת סיכומים, ובכך לפנות זמן למנחה לעיסוק ישיר עם המשתתפים.

סיכונים אתיים בהנחיית קבוצות בתמיכת בינה מלאכותית

המאמר מזהיר מפני מספר סיכונים אתיים חמורים שעלולים להיווצר משילוב מערכות בינה מלאכותית בהנחיית קבוצות, תוך שימוש במסגרת התיאורטית להעמקת ההבנה.

שמירה על פרטיות וסודיות היא עיקרון יסוד בעבודה סוציאלית, ושילוב מערכות בינה מלאכותית מחייב איסוף מידע אישי מתמשך, כולל הקלטות ותמלולים. גם כאשר משתמשים באמצעי הצפנה מתקדמים, קיים סיכון של פריצה או דליפת מידע. נוסף לכך, כאשר חלק מחברי הקבוצה מסכימים לשימוש בטכנולוגיה ואחרים לא, נוצר אתגר אתי חדש שמחייב פתרונות יצירתיים כדי לא להפלות אף משתתף.

סוגיה מרכזית נוספת היא ההטיה המובנית באלגוריתמים, הנובעת מהנתונים שעליהם הם מתבססים. מערכות עשויות להחיל נורמות תרבותיות מערביות באופן בלתי מודע, ולפרש בטעות התנהגויות ייחודיות כחריגות. בנוסף, בינה מלאכותית מתקשה לזהות רמזים לא-מילוליים, כמו שפת גוף וטון דיבור, שהינם מרכיבים קריטיים בתהליכים קבוצתיים. מכאן עולה החשש שהמערכת תפספס או תעוות את הדינמיקה הרגשית.

גם תפקידו של המנחה נמצא תחת איום. שימוש יתר בטכנולוגיה עלול להפחית את הדומיננטיות של הנחיה אנושית, ולפגוע באינטואיציה ובקשר האישי שכה חשובים בתהליך הקבוצתי. המאמר מדגיש שמרבית המנחים אינם מומחים בטכנולוגיה, ושילוב מערכות אלו ללא ליווי מקצועי עלול להפוך את הטכנולוגיה לכלי של פיקוח ולא של תמיכה טיפולית.

מפת דרכים לשילוב אתי ואפקטיבי של בינה מלאכותית

המאמר מציע מתווה מפורט לשילוב הדרגתי וזהיר של בינה מלאכותית בעבודה סוציאלית קבוצתית. בשלב הראשון, יש לבצע מחקרי פיילוט הממוקדים בסוגיות שעדיין אינן נחקרו די הצורך, כגון השפעת נוכחות AI על דינמיקה קבוצתית, או דרכי ההתמודדות כאשר רק חלק מהמשתתפים מסכימים לחשיפת נתוניהם.

לאחר מכן, יש לערב בעלי עניין מגוונים בתהליך הפיתוח, ובמיוחד קהילות מוחלשות, כדי לוודא שהטכנולוגיה מותאמת ולא משעתקת אפליה קיימת. יש לפתח כלים נגישים, ברי השגה, המותאמים לארגונים עם משאבים מוגבלים, כדי למנוע פערים נוספים בשירותים חברתיים.

השלב הבא הוא ניסוח קווים מנחים אתיים ייעודיים להנחיית קבוצות בתמיכת בינה מלאכותית, תוך שימת לב לשאלות ייחודיות כמו הסכמה מדעת חלקית או שקיפות של תהליכי קבלת ההחלטות על ידי האלגוריתם. לבסוף, המאמר מדגיש את הצורך בבחינה מתמדת של השפעות השילוב, באמצעות מדדים איכותניים וכמותיים, לצד ביקורות חיצוניות ואכיפה אתית.

סיכום

המאמר מציע ניתוח מעמיק, מאוזן ועתידני של הדרכים בהן ניתן, וחשוב, לשלב בינה מלאכותית בתבונה במסגרת עבודה קבוצתית בעבודה סוציאלית. לצד הפוטנציאל לשיפור תהליכים והנגשת שירותים, מתקיימים אתגרים אתיים ומעשיים משמעותיים המחייבים חשיבה ביקורתית, זהירות ומחויבות לערכים של כבוד האדם, צדק חברתי, ויחסי אנוש משמעותיים. השאלה איננה האם להשתמש בבינה מלאכותית, אלא כיצד לעשות זאת באופן שמכבד את מורכבות הקבוצה האנושית, מבלי לאבד את מהות העבודה הסוציאלית כמקצוע של קשר, חמלה והכלה.

חשיבותו של המאמר להבניית שיח מקצועי אתי בעידן טכנולוגי

המאמר מהווה תרומה משמעותית לשיח המתהווה על שילוב טכנולוגיות מתקדמות בעבודה סוציאלית, ומציב תשתית עיונית ומעשית לשילוב ביקורתי וזהיר של בינה מלאכותית בהנחיית קבוצות. בעידן שבו טכנולוגיות כמו ChatGPT ומערכות ניתוח רגש הולכות ונעשות נגישות וזמינות, עולה צורך דחוף לבחון את האופן שבו הן משתלבות במרחבים רגישים ומורכבים כמו קבוצות טיפוליות וחינוכיות. ייחודו של המאמר בכך שהוא אינו מהלל את הקדמה בעיניים עצומות, אלא מייצר תשתית מושגית ואתי־פרקטית לבחינה מתמשכת, מעמיקה ורבת־ממדים של השפעות הטכנולוגיה. תוך שימוש במסגרת תיאורטית רב־תחומית, הוא מציע מפת דרכים להשתלבות אחראית של כלים דיגיטליים, מבלי לוותר על עקרונות היסוד של הפרופסיה. בכך, המאמר אינו רק מגיב לתופעה טכנולוגית, אלא מנווט את השיח אל עבר עתיד שבו חדשנות ושמירה על צלם אנוש אינן סותרות זו את זו אלא משתלבות באיזון עדין. סטודנטים לעבודה סוציאלית יכולים להסתייע בו כמשאב מרכזי בכתיבת עבודות סמינריוניות על הנחיית קבוצות, תוך העמקה בהיבטים אתיים, מקצועיים וטכנולוגיים גם יחד.

שיתוף המאמר:

פוסטים אחרונים

קטגוריות

קטגוריות
דילוג לתוכן