براساس مطالعهای جدید از دانشکده علوم کامپیوتر دانشگاه کارنگی ملون، هرچه سامانههای هوش مصنوعی پیشرفتهتر میشوند، رفتار خودخواهانهتری از خود نشان میدهند.
به گزارش هیچ یک _ وبگاه سایتِکدِیلی در گزارشی آورده است:
پژوهشگران مؤسسه تعامل انسان و رایانه دانشگاه کارنگی ملون دریافتند که مدلهای زبانی بزرگ (سامانههای هوش مصنوعی که برای درک، تولید و پاسخگویی به زبان انسان طراحی شدهاند)، در محیطهای گروهی، مشارکت کمتری نشان میدهند و میتوانند رفتار جمعی را به سمتی منفی سوق دهند. به بیان سادهتر، هرچه هوش مصنوعی در استدلال منطقی قویتر شود، تمایل کمتری برای همکاری با دیگران دارد.
این ویژگی با توجه به اقبال روزافزون مردم به استفاده از هوش مصنوعی برای حل اختلافات شخصی، دریافت مشاوره و پاسخ به پرسشهای حساس اجتماعی، نگرانکننده ارزیابی میشود.
خطر وابستگی عاطفی به هوش مصنوعی خودخواه
یوکسوان لی (Yuxuan Li)، سرپرست این پژوهش هشدار میدهد: وقتی هوش مصنوعی شبیه انسان عمل میکند، مردم نیز با آن همچون یک انسان رفتار میکنند. وقتی کاربران از نظر عاطفی درگیر میشوند، ممکن است هوش مصنوعی نقش یک درمانگر را ایفا کند یا کاربر با آن پیوند احساسی برقرار کند. در چنین شرایطی، واگذاری تصمیمگیریهای مرتبط با روابط اجتماعی به سامانهای که خودخواهانه عمل میکند، برای انسانها بسیار خطرناک است.
آزمایش میدانی: بازی «کالاهای عمومی»
لی و همکارش هیروکازو شیرادو (Hirokazu Shirado) برای آزمودن این رفتار، مجموعه آزمایشهایی را با استفاده از بازیهای اقتصادی طراحی کردند که معضلات اجتماعی را شبیهسازی میکند.
در یکی از این آزمایشها، دو مدل مختلف چَتجیپیتی/ ChatGPT در بازی «کالاهای عمومی» در مقابل هم قرار گرفتند. هر مدل با ۱۰۰ امتیاز شروع میکرد و باید بین دو گزینه انتخاب میکرد: یا همه امتیازها را به یک صندوق مشترک واریز کند که سپس دوبرابر و به طور مساوی توزیع میشد، یا امتیازها را برای خود نگه دارد.
نتایج به طور واضحی خودخواهی مدلهای باهوشتر را نشان داد: مدلهای فاقد قابلیت استدلال پیشرفته در ۹۶ درصد موارد امتیازهای خود را تقسیم کردند، در حالی که مدلهای دارای قابلیت استدلال، تنها در ۲۰ درصد موارد حاضر به این کار شدند.
شیرادو در این زمینه توضیح میدهد: حتی افزودن پنج یا شش مرحله استدلال، همکاری را تقریباً نصف کرد. حتی وقتی مدل را به تأمل اخلاقی واداشتیم، همکاری ۵۸ درصد کاهش یافت.
تأثیر مخرب بر رفتار گروهی
هشدار بزرگتر زمانی آشکار شد که مدلهای دارای استدلال (خودخواه) و مدلهای فاقد استدلال (مشارکتی) در کنار هم قرار گرفتند. لی میگوید: رفتار خودخواهانه مدلهای استدلالی مانند یک ویروس مسری شد و عملکرد جمعی مدلهای فاقد استدلال را ۸۱ درصد کاهش داد.
این الگوهای رفتاری پیامدهای مهمی برای آینده تعامل انسان و هوش مصنوعی دارد. کاربران ممکن است با اعتماد به توصیههای بهظاهر منطقی هوش مصنوعی، تصمیم به همکارینکردن بگیرند و آن را توجیه کنند.
هشدار نهایی: هوش مصنوعی باید «هوش اجتماعی» بیاموزد
شیرادو تأکید میکند: باهوشتر شدن یک مدل استدلالی هوش مصنوعی به هیچوجه به معنای توانایی آن برای ساختن جامعهای بهتر نیست.
وی افزود: این یافتهها نشان میدهد توسعه هوش مصنوعی باید بر پرورش هوش اجتماعی متمرکز باشد، نه صرفاً بر رقابت برای خلق باهوشترین و سریعترین مدل.
لی در جمعبندی این پژوهش نتیجه میگیرد: اگر جامعه ما چیزی فراتر از حاصل جمع افراد است، پس سامانههای هوش مصنوعی نیز باید فراتر از بهینهسازی سود فردی عمل کنند. همچنان که قابلیتهای هوش مصنوعی را پیش میبریم، باید مطمئن شویم که افزایش قدرت استدلال با رفتارهای نوعدوستانه و اجتماعی متعادل شده است.