از نوشتن ایمیل‌ها توسط ChatGPT گرفته تا سیستم‌های هوش مصنوعی که برنامه‌های تلویزیونی پیشنهاد می‌کنند و حتی به پزشکان در تشخیص بیماری‌ها یاری می‌دهند، حضور هوش ماشینی در زندگی روزمره دیگر یک داستان علمی‌تخیلی نیست. با این حال، با وجود سرعت، دقت و بهینگی این فناوری، هنوز احساسی از ناراحتی در بین مردم درباره آن وجود دارد. برخی از آن‌ها از استفاده از ابزارهای هوش منصوعی لذت می‌برند، در حالی که دیگران نسبت به آن احساس اضطراب، بی‌اعتمادی یا حتی خیانت دارند، اما چرا؟

پاسخ تنها به نحوه کارکرد هوش مصنوعی مربوط نمی‌شود، بلکه به شیوه رفتار ما با آن نیز ارتباط دارد. ما آن را درک نمی‌کنیم، پس به آن اعتماد نداریم. انسان‌ها بیشتر به سیستم‌هایی اعتماد می‌کنند که آن‌ها را درک می‌کنند. ابزارهای سنتی برایمان آشنا به نظر می‌رسند، به‌طوری که شما باید کلیدی را بچرخانید تا ماشین روشن شود؛ یا اینکه دکمه‌ای را فشار می‌دهید و آسانسور به طبقه مورد نظر می‌رود. از سوی دیگر، بسیاری از سیستم‌های هوش مصنوعی مانند جعبه‌های سیاه عمل می‌کنند. شما چیزی تایپ می‌کنید و نتیجه ظاهر می‌شود.

منطق میان این دو مرحله پنهان است. از لحاظ روانشناسی، این موضوع نگران‌کننده است. ما دوست داریم رابطه علت و معلول را بدانیم و بتوانیم تصمیمات را بررسی کنیم. وقتی نمی‌توانیم این کار را انجام دهیم، احساس ناتوانی می‌کنیم. این یکی از دلایل پدیده‌ای است که به آن بیزاری از الگوریتم می‌گویند. این اصطلاحی است که توسط محقق بازاریابی، برکلی دیتورست و همکارانش رواج یافت. تحقیقات آن‌ها نشان داد که مردم اغلب قضاوت ناقص انسانی را به تصمیم‌گیری الگوریتمی ترجیح می‌دهند، به ویژه پس از مشاهده تنها یک خطای الگوریتمی.

هوش مصنوعی

ما به‌طور عقلانی می‌دانیم که سیستم‌های هوش مصنوعی احساسات یا اهداف خاصی ندارند. اما این موضوع موجب نمی‌شود که آن‌ها را انسانی تصور کنیم. وقتی چت جی‌پی‌تی بیش از حد مودبانه پاسخ می‌دهد، برخی کاربران آن را ترسناک می‌دانند. وقتی موتور پیشنهاددهنده بیش از اندازه دقیق می‌شود، حس مزاحمت در حریم خصوصی برای کاربران ایجاد می‌کند. بنابراین، ما شروع به شک کردن می‌کنیم که شاید هوش مصنوعی دستکاری شده است، حتی اگر هوش مصنوعی هیچ شخصیتی نداشته باشد. این پدیده نوعی انسان‌انگاری است، یعنی نسبت دادن نیت‌ها یا ویژگی‌های انسانی به سیستم‌های غیرانسانی.

اساتید ارتباطات، کلیفورد ناس، بایرون ریوز و دیگران ثابت کرده‌اند که ما حتی وقتی می‌داینم ماشین‌ها انسان نیستند، باز هم به آن‌ها واکنشی اجتماعی نشان می‌دهیم. یکی از یافته‌های جالب در علوم رفتاری این است که ما اغلب راحت‌تر از خطای انسانی نسبت به خطای ماشینی چشم‌پوشی می‌کنیم. وقتی یک انسان اشتباه می‌کند، ما آن را درک می‌کنیم؛ حتی ممکن است با او همدردی کنیم. از سوی دیگر، هنگامی که یک الگوریتم اشتباه می‌کند، به ویژه اگر به عنوان یک الگوریتم بی‌طرف یا داده‌محور معرفی شده باشد، احساس خیانت می‌کنیم.

این موضوع به تحقیقی درباره نقض انتظارات مربوط می‌شود، زمانی که فرضیات ما درباره نحوه عملکرد چیزی برهم می‌خورد. این امر موجب ناراحتی و از بین رفتن اعتماد می‌شود. ما اطمینان داریم که ماشین‌ها منطقی و بی‌طرف هستند. بنابراین، وقتی آن‌ها شکست می‌خورند، مانند دسته‌بندی نادرست یک تصویر، ارائه خروجی‌های جانبدارانه یا توصیه چیزی به شدت نامناسب، واکنش ما تندتر می‌شود. ما انتظار بیشتری از آن‌ها داریم، در حالی که خودمان همیشه تصمیم‌های ناقص می‌گیریم. با این حال، می‌توانیم دلیل این کار را از هوش مصنوعی بپرسیم؟

هوش مصنوعی

ما از اشتباه کردن هوش مصنوعی متنفریم

برای برخی از مردم، هوش مصنوعی نه‌تنها ناآشنا است، بلکه آن‌ها را مضطرب نیز می‌کند. معلمان، نویسندگان، وکلا و طراحان ناگهان با ابزارهایی روبرو شده‌اند که بخش‌هایی از کار آن‌ها را تکرار می‌کنند. این تنها مربوط به اتوماسیون نیست، بلکه مربوط به چیزی است که مهارت‌های ما را ارزشمند می‌کند و اینکه انسان بودن به چه معناست. این امر می‌تواند موجب احساس نوعی تهدید هویت شود، مفهومی که توسط روان‌شناس اجتماعی، کلاود استیل و دیگران مورد بررسی قرار گرفته است. این مفهوم ترس از کاهش تخصص یا منحصربه‌فرد بودن را توصیف می‌کند. نتیجه چه می‌شود؟ مقاومت، حالت بازدارنده یا رد کامل فناوری. در این مورد، بی‌اعتمادی یک اشکال نیست، بلکه یک مکانیسم دفاعی روانی است.

علاقه به نشانه‌های احساسی

اعتماد انسان بر چیزی بیش از منطق بنا شده است. ما به لحن صدا، حالات چهره، تردید و تماس چشمی توجه می‌کنیم. هوش مصنوعی هیچ‌یک از این‌ها را ندارد. اگرچه این فناوری ممکن است روان و حتی جذاب باشد، اما نمی‌تواند مانند یک انسان معمولی به اطمینان خاطر بدهد. این شبیه به ناراحتی ناشی از دره وهمی است، اصطلاحی که توسط ماساهیرو موری، متخصص رباتیک ژاپنی، جهت توصیف احساس ترسناک بودن چیزی توصیف شد که تقریبا شبیه انسان است، اما نه به‌طور کامل. این چیز از نظر ظاهری یا صوتی درست به نظر می‌آید، اما نقصی دارد.

این فقدان عاطفی را می‌توان به عنوان سردی یا حتی فریب تعبیر کرد. در جهانی پر از دیپ‌فیک و تصمیمات الگوریتمی، آن فقدان تبدیل به یک مشکل می‌شود، نه به این دلیل که هوش مصنوعی کار اشتباهی انجام می‌دهد، بلکه به این دلیل که ما نمی‌دانیم درباره آن چه احساسی داشته باشیم. شایان ذکر است که همه سوء‌ظن‌ها به هوش مصنوعی غیرمنطقی نیستند. ثابت شده است که الگوریتم‌ها می‌توانند به ویژه در زمینه‌هایی مانند استخدام، امور پلیسی و امتیازدهی می‌توانند دچار تعصب شوند. اگر قبلا تجربه بدی با سیستم‌های داده‌ای داشته‌اید یا در موقعیت نامساعدی قرار گرفته‌اید، بدبین نیستید، بلکه محتاط هستید.

این به یک ایده روانشناختی گسترده‌تر مرتبط می‌شود، یعنی بی‌اعتمادی آموخته‌شده. وقتی نهادها یا سیستم‌ها مرتبا درباره گروه‌های خاصی بدگویی می‌کنند، شک و تردید به کاری منطقی و یک مکانیسم حافظتی تبدیل می‌شود. گفتن اینکه کردم به یک سیستم اعتماد کنید، معمولا موثر نیست. اعتماد باید کسب شود. این به معنای طراحی نوعی ابزارهای هوش مصنوعی است که شفاف، قابل بررسی و مسئولیت‌پذیر باشند. یعنی دادن اختیار به کاربران، نه فقط راحتی. از نظر روانشناختی، ما آنچه می‌فهمیم، آنچه می‌توانیم زیر سوال ببریم و آنچه با ما محترمانه رفتار می‌کند، اعتماد می‌کنیم. اگر می‌خواهید هوش مصنوعی پذیرفته شود، باید کمتر شبیه به یک جعبه سیاه باشد و مکالمه‌ای را شکل دهد که به آن دعوت شده‌ایم.

برچسب ها :

چه امتیازی می دهید؟
5 / 0
[ 0 رای ]
دیدگاه کاربران 0
  • نظرات شما پس از بررسی و تایید نمایش داده می شود.
  • لطفا نظرات خود را فقط در مورد مطلب بالا ارسال کنید.