- دسته بندی : اخبار تکنولوژی
- بازدید : 9 بار
- 0 دیدگاه
از نوشتن ایمیلها توسط ChatGPT گرفته تا سیستمهای هوش مصنوعی که برنامههای تلویزیونی پیشنهاد میکنند و حتی به پزشکان در تشخیص بیماریها یاری میدهند، حضور هوش ماشینی در زندگی روزمره دیگر یک داستان علمیتخیلی نیست. با این حال، با وجود سرعت، دقت و بهینگی این فناوری، هنوز احساسی از ناراحتی در بین مردم درباره آن وجود دارد. برخی از آنها از استفاده از ابزارهای هوش منصوعی لذت میبرند، در حالی که دیگران نسبت به آن احساس اضطراب، بیاعتمادی یا حتی خیانت دارند، اما چرا؟
پاسخ تنها به نحوه کارکرد هوش مصنوعی مربوط نمیشود، بلکه به شیوه رفتار ما با آن نیز ارتباط دارد. ما آن را درک نمیکنیم، پس به آن اعتماد نداریم. انسانها بیشتر به سیستمهایی اعتماد میکنند که آنها را درک میکنند. ابزارهای سنتی برایمان آشنا به نظر میرسند، بهطوری که شما باید کلیدی را بچرخانید تا ماشین روشن شود؛ یا اینکه دکمهای را فشار میدهید و آسانسور به طبقه مورد نظر میرود. از سوی دیگر، بسیاری از سیستمهای هوش مصنوعی مانند جعبههای سیاه عمل میکنند. شما چیزی تایپ میکنید و نتیجه ظاهر میشود.
منطق میان این دو مرحله پنهان است. از لحاظ روانشناسی، این موضوع نگرانکننده است. ما دوست داریم رابطه علت و معلول را بدانیم و بتوانیم تصمیمات را بررسی کنیم. وقتی نمیتوانیم این کار را انجام دهیم، احساس ناتوانی میکنیم. این یکی از دلایل پدیدهای است که به آن بیزاری از الگوریتم میگویند. این اصطلاحی است که توسط محقق بازاریابی، برکلی دیتورست و همکارانش رواج یافت. تحقیقات آنها نشان داد که مردم اغلب قضاوت ناقص انسانی را به تصمیمگیری الگوریتمی ترجیح میدهند، به ویژه پس از مشاهده تنها یک خطای الگوریتمی.

ما بهطور عقلانی میدانیم که سیستمهای هوش مصنوعی احساسات یا اهداف خاصی ندارند. اما این موضوع موجب نمیشود که آنها را انسانی تصور کنیم. وقتی چت جیپیتی بیش از حد مودبانه پاسخ میدهد، برخی کاربران آن را ترسناک میدانند. وقتی موتور پیشنهاددهنده بیش از اندازه دقیق میشود، حس مزاحمت در حریم خصوصی برای کاربران ایجاد میکند. بنابراین، ما شروع به شک کردن میکنیم که شاید هوش مصنوعی دستکاری شده است، حتی اگر هوش مصنوعی هیچ شخصیتی نداشته باشد. این پدیده نوعی انسانانگاری است، یعنی نسبت دادن نیتها یا ویژگیهای انسانی به سیستمهای غیرانسانی.
اساتید ارتباطات، کلیفورد ناس، بایرون ریوز و دیگران ثابت کردهاند که ما حتی وقتی میداینم ماشینها انسان نیستند، باز هم به آنها واکنشی اجتماعی نشان میدهیم. یکی از یافتههای جالب در علوم رفتاری این است که ما اغلب راحتتر از خطای انسانی نسبت به خطای ماشینی چشمپوشی میکنیم. وقتی یک انسان اشتباه میکند، ما آن را درک میکنیم؛ حتی ممکن است با او همدردی کنیم. از سوی دیگر، هنگامی که یک الگوریتم اشتباه میکند، به ویژه اگر به عنوان یک الگوریتم بیطرف یا دادهمحور معرفی شده باشد، احساس خیانت میکنیم.
این موضوع به تحقیقی درباره نقض انتظارات مربوط میشود، زمانی که فرضیات ما درباره نحوه عملکرد چیزی برهم میخورد. این امر موجب ناراحتی و از بین رفتن اعتماد میشود. ما اطمینان داریم که ماشینها منطقی و بیطرف هستند. بنابراین، وقتی آنها شکست میخورند، مانند دستهبندی نادرست یک تصویر، ارائه خروجیهای جانبدارانه یا توصیه چیزی به شدت نامناسب، واکنش ما تندتر میشود. ما انتظار بیشتری از آنها داریم، در حالی که خودمان همیشه تصمیمهای ناقص میگیریم. با این حال، میتوانیم دلیل این کار را از هوش مصنوعی بپرسیم؟

ما از اشتباه کردن هوش مصنوعی متنفریم
برای برخی از مردم، هوش مصنوعی نهتنها ناآشنا است، بلکه آنها را مضطرب نیز میکند. معلمان، نویسندگان، وکلا و طراحان ناگهان با ابزارهایی روبرو شدهاند که بخشهایی از کار آنها را تکرار میکنند. این تنها مربوط به اتوماسیون نیست، بلکه مربوط به چیزی است که مهارتهای ما را ارزشمند میکند و اینکه انسان بودن به چه معناست. این امر میتواند موجب احساس نوعی تهدید هویت شود، مفهومی که توسط روانشناس اجتماعی، کلاود استیل و دیگران مورد بررسی قرار گرفته است. این مفهوم ترس از کاهش تخصص یا منحصربهفرد بودن را توصیف میکند. نتیجه چه میشود؟ مقاومت، حالت بازدارنده یا رد کامل فناوری. در این مورد، بیاعتمادی یک اشکال نیست، بلکه یک مکانیسم دفاعی روانی است.
علاقه به نشانههای احساسی
اعتماد انسان بر چیزی بیش از منطق بنا شده است. ما به لحن صدا، حالات چهره، تردید و تماس چشمی توجه میکنیم. هوش مصنوعی هیچیک از اینها را ندارد. اگرچه این فناوری ممکن است روان و حتی جذاب باشد، اما نمیتواند مانند یک انسان معمولی به اطمینان خاطر بدهد. این شبیه به ناراحتی ناشی از دره وهمی است، اصطلاحی که توسط ماساهیرو موری، متخصص رباتیک ژاپنی، جهت توصیف احساس ترسناک بودن چیزی توصیف شد که تقریبا شبیه انسان است، اما نه بهطور کامل. این چیز از نظر ظاهری یا صوتی درست به نظر میآید، اما نقصی دارد.
این فقدان عاطفی را میتوان به عنوان سردی یا حتی فریب تعبیر کرد. در جهانی پر از دیپفیک و تصمیمات الگوریتمی، آن فقدان تبدیل به یک مشکل میشود، نه به این دلیل که هوش مصنوعی کار اشتباهی انجام میدهد، بلکه به این دلیل که ما نمیدانیم درباره آن چه احساسی داشته باشیم. شایان ذکر است که همه سوءظنها به هوش مصنوعی غیرمنطقی نیستند. ثابت شده است که الگوریتمها میتوانند به ویژه در زمینههایی مانند استخدام، امور پلیسی و امتیازدهی میتوانند دچار تعصب شوند. اگر قبلا تجربه بدی با سیستمهای دادهای داشتهاید یا در موقعیت نامساعدی قرار گرفتهاید، بدبین نیستید، بلکه محتاط هستید.
این به یک ایده روانشناختی گستردهتر مرتبط میشود، یعنی بیاعتمادی آموختهشده. وقتی نهادها یا سیستمها مرتبا درباره گروههای خاصی بدگویی میکنند، شک و تردید به کاری منطقی و یک مکانیسم حافظتی تبدیل میشود. گفتن اینکه کردم به یک سیستم اعتماد کنید، معمولا موثر نیست. اعتماد باید کسب شود. این به معنای طراحی نوعی ابزارهای هوش مصنوعی است که شفاف، قابل بررسی و مسئولیتپذیر باشند. یعنی دادن اختیار به کاربران، نه فقط راحتی. از نظر روانشناختی، ما آنچه میفهمیم، آنچه میتوانیم زیر سوال ببریم و آنچه با ما محترمانه رفتار میکند، اعتماد میکنیم. اگر میخواهید هوش مصنوعی پذیرفته شود، باید کمتر شبیه به یک جعبه سیاه باشد و مکالمهای را شکل دهد که به آن دعوت شدهایم.
