ضروریست، مؤسسهها و متخصصان کوچینگ، اصولی مشخص و شفاف برای استفاده اخلاقی از تکنولوژیهای هوشمصنوعی تدوین کنند که در آن به چالشهایی مانند امنیت داده، سوگیریها و اعتبار اطلاعات توجه شود.
هوشمصنوعی (AI) مجموعهای از ابزارهای مؤثر است که برای پردازش، ترکیب، کاربست و ارتقای اطلاعات به کار گرفته میشود. با پیچیدهترشدن این تکنولوژیها، دنیای کار و نحوه استفاده ما از اینترنت دگرگون خواهد شد. البته باید به خاطر داشت که این برنامهها، خطرات جدیدی نیز با خود به همراه دارند زیرا هوشمصنوعی میتواند تصاویر، صداهای ضبطشده و اطلاعات را دستکاری و مخدوش کند یا باعث تقویت سوگیریهای مضر شود. اگر اصول و رهنمودهای روشنی درباره استفاده اخلاقی از هوشمصنوعی وجود نداشته باشد، این تکنولوژیها میتوانند به سوءاستفاده از اطلاعات شخصی کمک کنند، منجر به تشدید نابرابریها شوند و اطلاعات غلط را اشاعه دهند.
هوشمصنوعی چیست؟
هوش مصنوعی، اصطلاحی جامع است که برای توصیف روش تحلیل دادههای کلان توسط برنامهها و شناسایی الگوهایی که منعکسکننده نحوه تصمیمگیری انسان است، به کار برده میشود.
الگوریتمها: مجموعهای از قواعد برای حل مسئله است. هوشمصنوعی مبتنی بر الگوریتمهاییست که به نحوه مرتبکردن و طبقهبندی دادهها اهمیت میدهند. بهعلاوه، شاید در مواقعی که معیارهای خاصی برآورده شده، الگوریتمها شامل دستورالعملهای اضافه نیز باشد.
یادگیری ماشینی: استفاده از الگوریتمها برای پردازش دادههای کلان. هرچه دادههای بیشتری تحلیل شود، برنامههای یادگیری ماشینی بهتر میتوانند بر اساس شناسایی الگوها، خروجیهای آینده را پیشبینی کنند.
پردازش زبان طبیعی: استفاده از زبان انسان بهعنوان منبع داده برای تولید پاسخهایی شبیه پاسخ انسان، از جمله خروجیهای نوشتاری و گفتاری.
صنایع، مؤسسههای غیردولتی و سیاستگذاران برای مقابله با تهدیدها و نقاط ضعف احتمالی برنامهنویسی هوشمصنوعی، به فکر تدوین چهارچوبهای اخلاقی و سیاستهایی هستند که اجرای مسئولانه هوشمصنوعی را کنترل میکند. برای مثال، شورای اروپایی چهارچوبهای اخلاقی برای اجرای هوشمصنوعی، بر اهمیت حفظ استقلال انسان، پیشگیری از آسیب، عدالت، توجیهپذیری و نظارت بر سیستمهای هوشمصنوعی تأکید میکند. اتحادیه اروپا نیز بر مبنای گزارش اصلی همین شورا در حال تدوین مقرراتی است تا اطمینان یابد اطلاعات ایجادشده توسط هوشمصنوعی، صحیح، منصفانه و منطبق با حریم خصوصی و حامی حقوق بشر است. بخشی از این قوانین شامل مسئول دانستن مؤسسههای تولیدکننده و استفادهکننده از هوشمصنوعیست تا در قبال قوانین ایمنی و حفظ اطلاعات شخصی، متعهد باشند.
در حال حاضر، در صنعت کوچینگ از هوشمصنوعی برای بازاریابی کسبوکارهای فردی، شناسایی حوزههای نیازمند توسعه در مؤسسهها و تسهیل هماهنگی بین کوچ و مراجع استفاده میشود. آزمایشهای اولیه باتهای مکالمه (چَتبات) نشان میدهد که هوشمصنوعی چگونه میتواند اجزای اصلی گفتوگوی کوچینگ را شبیهسازی کند. واضح است که باتهای مکالمه نمیتوانند تجربه همهجانبه کوچینگ توسط انسان را منعکس کنند یا جایگزینی برای آن باشند اما علاقهای روزافزون برای استفاده از این تکنولوژیها به عنوان مکمل کوچینگ و روشی برای ارائه خدمات کوچینگ به مخاطبان جدید، مشاهده میشود.
لازم است پژوهشگران کوچینگ، نهادهای اعتباربخشی و خدماتدهندگان، برای ایجاد بنیانی جهت استفاده اخلاقی از هوشمصنوعی، اصول و رهنمودهایی تدوین کنند که به حوزههای زیر بپردازد:
۱- رهنمودهایی برای کوچینگ با هوشمصنوعی.
۲- معتبربودن اطلاعات.
۳- ایمن و خصوصیبودن دادهها.
۴- سوگیری و تبعیض.
۱- آیا باتهای کوچینگ با هوشمصنوعی، جایگزین کوچهای انسانی میشوند؟
در حال حاضر، هوشمصنوعی برای اثرگذاری بر تصمیمگیری انسانها استفاده میشود. شرکتها میتوانند برای مدیریت امور اداری مانند تعیین زمان جلسهها و نوشتن صورتجلسه از اپلیکیشنها کمک بگیرند. در بخش منابعانسانی، الگوریتمهای هوشمصنوعی برای پیداکردن متقاضیان واجد شرایط، رزومههای ارسالی را دستهبندی میکنند. بهعلاوه، از هوشمصنوعی برای تولید محتوای بازاریابی، ترجمه محتوا برای مخاطبان با زبانهای مختلف و اطمینان از پایبندی به رهنمودهای مربوط به لحن و سبکویژه برند، استفاده میشود. با توجه به اینکه هوشمصنوعی با صرف هزینه و زمان کم، از عهده تمامی این وظایف برمیآید، بسیاری نگرانند که استفاده از هوشمصنوعی با حذف مشاغل کارمندی در سطح مبتدی و افزایش شکاف مهارتی، باعث بیکاری جمعیت بزرگی خواهد شد.
مجمع جهانی اقتصاد، پیشبینی میکند که هوشمصنوعی با حذف برخی نقشها، آینده کار را مختل کند و تشریح میکند که چرا این ابزارها نباید جایگزین مهارتهای خلاقانه، اجتماعی و هیجانی مختص انسانها شوند. روابط کوچ و مراجع نمیتواند به طور کامل به هوشمصنوعی متکی باشد زیرا مکالمههای بین این دو، بر مهارتهای انسانی که ذکر شد وابستهاند. در عوض، هوشمصنوعی باید بر تسهیل انجام امور اداری متمرکز باشد تا کوچها بتوانند بر شایستگیهای اساسی خود مانند همکاری، همدلی و کنجاوی تمرکز کنند. از سوی دیگر، به کوچها آموزش داده میشود نیازهای خارج از حوزه کوچینگ مانند نیاز به یادگیری مستمر یا حمایت عاطفی را در مراجع تشخیص دهند. در حال حاضر، باتهای مکالمه نمیتوانند از پس این مهارتها و شایستگیهای اساسی کوچینگ برآیند و نباید با کوچینگ به روش مرسوم، یکی دانسته شوند.
از آنجا که تلاش میشود با کمک هوشمصنوعی، مکالمهها و پرسشهای مرتبط با کوچینگ تقلید شود، کوچها حق دارند که درباره باتهای مکالمه مردد باشند. با توجه به اینکه قوانین مشخصی درباره نحوه آموزش و مهارتآموزی کوچها وجود ندارد، تصمیمگیری درباره بهترین شکل ارائه خدمات کوچینگ بر عهده هر مراجع خواهد بود. صرفنظر از کیفیت و اعتبار، شاید کوچها از باتهای کوچینگ به عنوان ابزاری حمایتی استفاده کنند یا از آن برای ایجاد سطوح جدیدی از خدمات کوچینگ کمک بگیرند. استفاده از باتهای مکالمه برای استخدام، آموزش و توسعه نیروها، یکی از روشهای احتمالی برای بهکارگیری آنهاست. بهعلاوه، ممکن است این برنامهها برای مراجعانی که توانایی پرداخت هزینههای کوچینگ به روش مرسوم را ندارند، جذاب باشد. البته دریافت گواهینامه کوچینگ توسط کوچ، معمولاً نشاندهنده بالاتربودن کیفیت خدمات است. در مطالعه جهانی کوچینگ که توسط فدراسیون بینالمللی کوچینگ (ICF[1]) در 2023 انجام شده، 80 درصد کوچها عنوان کردهاند که مراجعان از آنها انتظار دارند اعتبارنامه دریافت کرده باشند و این یافته نشان میدهد که تقاضا برای کوچینگ توسط انسانها در آینده نیز همچنان به قوت قبل، باقی خواهد ماند.
آنچه کوچها باید به آن توجه کنند:
- هوشمصنوعی ابزاری قدرتمند برای انجام امور اداریست و فرصت بیشتری برای کوچها مهیا میکند تا تعامل با مراجع و پیشرفت حرفهای را در اولویت قرار دهند.
- باتهای مکالمه به یک اندازه از هوشهیجانی و ادراک همدلانه انسانها برخوردار نیستند. توانایی ایجاد اعتماد، برقراری رابطه همراه با درک و احترام و هدایت هیجانها و موقعیتهای پیچیده، همچنان جنبهای حیاتی از کوچینگ است که هوشمصنوعی نمیتواند بهطور کامل آن را شبیهسازی کند.
۲- آیا اطلاعاتی که توسط هوشمصنوعی تولید میشود، معتبر و ایمن است؟
یادگیری ماشینی و برنامههای پردازش زبان به نظارت انسانی نیاز دارند. این تکنولوژیها بر مبنای دادههای در دسترس، دستورهای دادهشده توسط انسان و مشخصات مربوط به طراحی آنها، «نتایجی» تولید میکنند. برای مثال، چت جیپیتی[2] که توسط شرکت اوپن اِیآی[3] طراحی شده، دادهها را از اینترنت یا منبعی مشخص پیمایش میکند تا پاسخی تولید کند یا اطلاعات را بر اساس دستور دادهشده، خلاصه کند. بر اساس «راهنمای ایمنی و استفاده بهنیه اوپن اِیآی»، هوشمصنوعی میتواند با ایجاد اطلاعات اشتباه یا ساختگی و تولید پاسخهایی که نامناسب یا سوگیرانه هستند، «هذیان بگوید». نباید از هوشمصنوعی بهعنوان جایگزینی برای توصیههای اخلاقی، حقوقی، مالی یا پزشکی استفاده کرد. بهعنوان مثال، وکیلی از چت جیپیتی برای ایجاد یک استدلال حکمی با استناد به پروندههای جعلی، استفاده کرده است. در فضای دانشگاهی نیز این نگرانی وجود دارد که چنین تکنولوژیهایی، فرهنگ تقلب را جا بیندازند و متخصصان جوان بدون آمادگی وارد محیط کار شوند.
اگر برای تولید محتوای نگارشی یا برقراری ارتباط با مراجعان از برنامههای هوشمصنوعی مولّد کمک میگیرید، به خاطر داشته باشید که هوشمصنوعی به نظارت انسانی نیاز دارد. احتمال دارد اطلاعاتی که توسط هوشمصنوعی تولید میشود، نادرست، تبعیضآمیز، نامحترمانه یا مبهم باشد. استفاده از هوشمصنوعی در حوزه بازاریابی نیز میتواند کلامی زائد، سادهانگارانه یا عجیب تولید کند و تأثیری منفی بر مراجعان احتمالی بگذارد. مسئله نگرانکنندهتر این است که باتهای مکالمه نمیتوانند تشخیص دهند مراجع چه زمانی به حمایت روانی نیاز دارد و ممکن است اطلاعاتی خطرناک و آسیبزا در اختیار مراجع قرار دهند.
اتکای بیش از اندازه به هوشمصنوعی در حرفه کوچینگ میتواند کیفیت تعامل و مشارکت مراجع را کاهش دهد. اگر قرار است باتهای مکالمه در کوچینگ بهکار گرفته شوند، باید بر کیفیت و امنبودن آنها، بهویژه در مورد مراجعان آسیبپذیر، نظارت شود. از آنجا که باتهای مکالمه برای گفتوگو با گروهی خاص از کاربرها آموزش دیدهاند، ممکن است برای همه مراجعان مناسب نباشند و نتوانند سطوح مختلفی از حمایت را بر اساس عواملی مانند فرهنگ، نژاد، سن، جنسیت و زبان، برای مراجعان مهیا کنند. استفاده از این برنامهها بدون اطلاع و رضایت قبلی مراجع میتواند به مشکلاتی مرتبط با امنبودن اطلاعات و حفظ حریم شخصی منجر شود.
آنچه کوچها باید به آن توجه کنند:
- با توجه به اینکه هوشمصنوعی میتواند اطلاعاتی غلط، گمراهکننده یا سوگیرانه تولید کند، کوچها باید محتوای تولیدشده توسط هوشمصنوعی را راستیآزمایی کنند و بر آن نظارت داشته باشند.
- کوچها باید پیش از استفاده از ابزارهای مولد زبان در جلسات کوچینگ، از محدودیتها و خطرهای این ابزار هوشمصنوعی آگاه باشند.
- کوچها باید با آگاهی از ملاحظات اخلاقی، حین استفاده از باتهای مکالمه، مرزها و مسئولیتهای حرفهای خود را حفظ کنند.
۳- آیا هوشمصنوعی، به استانداردهای محرمانگی و امنیت دادهها، متعهد است؟
هوشمصنوعی به عنوان یک ابزار به دادهها متکیست. برنامههای یادگیری ماشین برای شناسایی الگوها و همبستگیهایی که «یادگیری» را تقویت میکند و توانایی پیشبینی توسط هوشمصنوعی را ممکن میکند، به حجم بالایی از دادهها نیازمند است. زمانیکه کاربر برای تحلیل یک متن، صدای ضبطشده یا ویدئو از هوشمصنوعی استفاده میکند، دیگر کنترلی بر نحوه ذخیرهسازی و استفاده از آن دادهها ندارد. تحلیلی که توسط واحد آیندهنگری علمی اتحادیه اروپا انجام شده، نشان میدهد که جمعآوری دادهها و استفاده از هوشمصنوعی، چگونه میتواند به مخاطراتی مانند نظارت شدید، آزار و اذیت، و پیشداوری تبعیضآمیز منجر شود. انجمن حسابرسی و کنترل سیستمهای اطلاعاتی (ISACA)، سازمانی متشکل از پیشگامان علم داده و فناوریاطلاعات، تشریح کرده که برنامههای هوشمصنوعی دادههایی را جمعآوری میکنند که ممکن است برای استفاده ثانویه، بازآفرینی شوند. بهعلاوه، این انجمن به خطر عدم رضایت در مواردی اشاره میکند که اطلاعات بدون آگاهی قبلی یک یا چند طرف، به اشتراک گذاشته میشود. برای مثال، اگر هوشمصنوعی در حال تحلیل یک گفتوگو یا مکالمه نوشتاری باشد، ممکن است همه طرفین گفتوگو رضایت نداشته باشند یا قادر نباشند از تحلیل دادههایشان انصراف دهند.
یکی از شروط اولیه توافق میان کوچ و مراجع، حفظ محرمانگیست. کوچهایی که برای ضبط، پیادهسازی، خلاصهنویسی و ویرایش اطلاعات جلسات کوچینگ یا تعامل با مراجع از ابزارهای هوشمصنوعی استفاده میکنند، ممکن است قرارداد محرمانگی را نقض کنند. نقض محرمانگی به این دلیل محتمل است که برنامههای هوشمصنوعی، دادههایی را پردازش و ذخیرهمیکنند که میتواند اطلاعات حساس مراجع، مالکیت معنوی یا راهبردهای کسبوکار را در اختیار هکرها قرار دهد. بهعلاوه، اگر کوچها از هوشمصنوعی در تعامل با مراجع خود استفاده میکنند، باید متناسب با شرایط، به قوانین محلی و جهانی مربوط به حفظ حریم شخصی و امنیت دادهها پایبند باشند. در مواردی که مکالمههای کوچینگ یا اطلاعات فردی مراجع توسط هوشمصنوعی تحلیل میشود، باید به او اطلاع داده شود.
تمامی نهادهای اعتباربخشی مهم حوزه کوچینگ، رهنمودهای اخلاقی تدوین کردهاند. برای مثال، اصول اخلاقی فدراسیون بینالمللی کوچینگ (ICF)، کوچها را ملزم میکند که «ماهیت و محدودیتهای محرمانگی را … توضیح دهند» و «هرگونه اسنادی از جمله فایلهای الکترونیکی و تعاملات را … به نحوی نگهداری، ذخیره یا حذف کنند که به حفظ محرمانگی کمک کند». انجمن کوچینگ و منتورینگ اروپا ([4]EMCC) نیز به طور مشترک، اصول اخلاقی جهانی برای کوچها، منتور و سوپروایزرها تدوین کردهاند. همچنین انجمن کوچینگ و منتورینگ اروپا بر مبنای اصول جهانی اخلاق، یک کارگروه جهانی با هدف تدوین استانداردهایی برای کوچینگ دیجیتال و هوشمصنوعی راهاندازی نموده است. با پیچیدهترشدن این تکنولوژیها، نهادهای کوچینگ و سازمانهای کوچینگ دیجیتال باید با یکدیگر همکاری کنند تا استانداردهایی برای استفاده اخلاقی از هوش مصنوعی در کوچینگ تدوین نموده و همواره آنها را بهروز نگهدارند.
آنچه کوچها باید به آن توجه کنند:
- کوچها باید به احتمال افشای اطلاعات شخصی مراجعان از جمله حق مالکیت معنوی، اطلاعات فردی و صداها و تصاویر ضبطشده توسط تکنولوژیهای هوشمصنوعی توجه نمایند.
- کوچها باید درباره نقش هوشمصنوعی در روند کوچینگ، محرمانه و ایمنبودن اطلاعات و محدودیتهای باتهای مکالمه با مراجعان خود بهطور شفاف گفتوگو کنند.
۴- چطور میتوان استفاده اخلاقی از هوشمصنوعی را که از سوگیری و تبعیض به دور باشد، تضمین نمود؟
سوگیری و تبعیض به اشکال مختلفی خود را نشان میدهد. اگر دادهها به یک گروه خاص مربوط باشد، هوشمصنوعی الگوها و نتیجهگیریهایی درباره مجموعه دادههای آموزشی تولید میکند که شاید نتوان آنرا برای همه مخاطبان بهکار بست. برای نمونه، برنامهای که برای تحلیل زبان انگلیسی طراحی شده است، شاید اگر فقط بر مبنای دادههایی از کسانی که زبان انگلیسی، زبان مادری آنهاست کار کند، برای دانشجویان زبان انگلیسی یا کاربرانی که انگلیسی زبان مادریشان نیست، به یک اندازه مفید نباشد. نوع دیگر سوگیری، سوگیری الگوریتم است که مبتی بر، الگوها بر اساس قضاوتها و پیوندهای انسانی هستند. برنامهای که طراحیشده تا فارغالتحصیلان دانشگاههای ردهاول را در اولویت قرار دهد، ممکن است دانشجویان جوامع حاشیهنشین یا افرادی با طبقه اجتماعی اقتصادی پایینتر را حذف کند. بهعلاوه، اگر هوشمصنوعی بهعمد برای شناسایی، ردیابی یا آزار افرادی با پیشینهای مشخص طراحی شود، میتواند به ترویج سوگیری و تبعیض کمک نماید. در یکی از موارد منحصربهفرد نظارت با هوشمصنوعی، از تکنولوژی تشخیص چهره استفاده شده تا وکلا را شناسایی کند و مانع حضور آنها در اماکن عمومی شهر نیویورک شود. کاربرد بدخواهانهتر میتواند شامل شناسایی، ردیابی و تبعیض علیه مخالفان سیاسی یا گروههای اقلیت باشد.
هوشمصنوعی میتواند در کوچینگ یا پیشرفت فردی نیز، باعث سوگیری و تبعیض شود. مؤسساتی که برای شناسایی و استخدام داوطلبان کوچینگ از هوشمصنوعی استفاده میکنند، باید به خاطر داشته باشند که ممکن است هوشمصنوعی بهطور اتفاقی و به دلیل سوگیری، گروههای مختلف را از کوچینگ و فرصت پیشرفت، محروم کند. کوچها باید آگاه باشند که احتمال دارد ابزارها و منابع هوشمصنوعی برای تنها یک گروه خاص طراحی شده و برای همه مخاطبان، مفید یا مناسب نباشد. بهویژه، بسیاری از باتهای مکالمه برای گفتوگو با مخاطبانی از فرهنگ غربی و فردگرا طراحی شدهاند. احتمالاً این ابزارها برای گروهها یا مراجعان چندملیتی در جوامع غیرغربی و جمعگرا مفید نیست.
در حال حاضر، پژوهشگران حوزه کوچینگ، پلتفرمهای کوچینگ دیجیتال و نهادهای اعتباربخشی، به دنبال کوچها و مراجعانی از گروههای مختلف هستند تا میزان سوگیری را در ابزارهای کوچینگ با هوشمصنوعی کاهش دهند. پیش از بهکارگیری باتهای مکالمه کوچینگ در مقیاسهای وسیع، برنامهنویسان هوشمصنوعی باید بتوانند تجسم کنند دادههای موجود چگونه میتواند به روشهای مفید و مضر، بر این باتها تأثیر بگذارد. با پیشبینی پیامدهای غیرعمدی و منفی سوگیری هوشمصنوعی، مؤسسهها میتوانند شرکتکنندگان متنوعتری را برای آموزش انتخاب کنند و عامدانه، الگوریتمهای متعادلتری بسازند. در صورتی که انجام این کار برای بات مکالمه کوچینگ میسر نبود، باید به صورت روشن و واضح، گروه مخاطبان خود را توصیف کند تا مراجعان را از محدودیتهای احتمالی مطلع سازد.
آنچه کوچها باید به آن توجه کنند:
- باتهای مکالمه بر اساس الگوریتمها و قوانین ازپیشتعیینشده عمل میکنند. گرچه میتوانند رهنمونها و منابعی کلی در اختیار مخاطب قرار دهند، اما هنوز قادر نیستند خدمات کوچینگ را متناسب با نیازها، شرایط و پیشزمینه منحصربهفرد هر مراجع ارائه دهند.
- کوچها باید بر بهکارگیری تخصص و شهود خود برای ارائه پشتیبانی شخصیسازیشده، تمرکز کنند.
- کوچها با شرکت در پژوهشهایی درباره کوچینگ دیجیتال یا ارائه بازخورد درباره باتهای پژوهشی مانند CoachHub’s AIMEY میتوانند به کاهش سوگیری در کوچینگ با هوشمصنوعی کمک نمایند.
مشاهده لینک منبع: thoughtleadership.org
برگردان: سمانه کاظمی ACC
[1] International Coaching Federation.
[2] ChatGPT.
[4] European Mentoring and Coaching Council.
یک پاسخ
سلام وقت بخیر
خیلی برام تازگی داشت و جالب بود و جای بررسی بسیار دارد