تحقیق گوگل و استنفورد: هوشی مصنوعی که درست مثل خودتان فکر میکند!
در دنیای پیشرفتهٔ فناوری شاهد ابداعاتی جدید –و چهبسا گاهی اوقات هراسانگیز– و ابزارهایی پیچیده مبتنی بر هوش مصنوعی هستیم که قادر به انجام کارهایی شگفتانگیزی هستند! یکی از جدیدترین پژوهشها در این زمینه، مطالعهای مشترک بین گوگل و دانشگاه استنفورد است که نشان میدهد هوش مصنوعی میتواند رفتار و شخصیت انسانها را با دقتی بالا تقلید کند.
این تحقیق با عنوان شبیهسازی عاملهای تولیدیِ هزار نفر (Generative Agent Simulations of 1,000 People) حاکی از آن است که محققان فقط با مصاحبهای دوساعته با هر فردی میتوانند هوشی مصنوعی بسازند که رفتارهای فردیِ او را با دقتی ۸۵درصدی شبیهسازی کند.
چرا این مطالعهٔ شبیهسازی انجام شد؟
محققانِ این پروژهٔ مطالعاتی قصد داشتند نشان بدهند میتوان از مصاحبهای معمولی برای ایجاد شبیهسازیهایی از رفتار افراد استفاده کرد.
آنها با مصاحبهای دوساعته، اطلاعاتی دربارهٔ ویژگیهای فردی مانند نژاد، جنسیت، رویکرد سیاسی، درآمد و حتی استریهای شغلیِ شرکتکنندگان جمعآوری کردند.
سپس دادههای بهدستآمده از این مصاحبهها به مدل یادگیری ماشین (LLM) داده شد تا برای ایجاد «عاملهای تولیدی» (generative agents) از آنها استفاده کند.
هدف از این پروژه شبیهسازی انسانی در جهتِ شبیهسازیِ رفتارهای فردی و جمعی برای استفاده در موقعیتهای مختلف اجتماعی، اقتصادی و سیاسی بود.
به عبارت سادهتر، محققان امیدوار بودند سایر محققان و حتی سیاستمداران بتوانند با استفاده از این نوع هوش مصنوعی نظرات و رفتارهای مردم را بهراحتی شبیهسازی کنند، و برای پیشبینی واکنشها نسبت به سیاستها، تبلیغات یا بحرانهای اجتماعی از آنها استفاده نمایند.
چگونه این تحقیق را در گوگل و استنفورد انجام دادند؟
محققان با همکاریِ شرکتی بهنام Bovitz –فعال در حوزهٔ تحقیقات بازار– تعداد ۱۰۵۲ نفر را برای انجام این مطالعه انتخاب کردند. این شرکتکنندگان از میان ساکنان ایالات متحده بهطور تصادفی انتخاب شدند تا نمونهای متنوع از جمعیتِ این کشور لحاظ شود.
هر شرکتکننده بعد از ثبتنام در پلتفرمی اختصاصی که برای این مطالعه طراحی شده بود، یک آواتار دوبُعدی (2D sprite) برای خودش ایجاد کرد. سپس با مصاحبهکنندهای مبتنی بر هوش مصنوعی (AI interviewer) که بهصورت آواتار ظاهر میشد، گفتوگو نمود.
اسکرینشاتی از صفحهٔ گفتوگوی شرکتکنندگانِ مطالعه با عامل هوش مصنوعی
در ابتدای مصاحبه از شرکتکنندگان خواسته شد دو خط اولِ کتاب گتسبی بزرگ (The Great Gatsby) را بخوانند تا سیستم بتواند صداها را کالیبره کند. این دو خط عبارت بودند از:
در سالهای جوانی و آسیبپذیری، پدرم نصیحتی کرد که از همان زمان تا امروز در ذهنم مانده است: هر وقت خواستی کسی را سرزنش کنی، به یاد داشته باش که همهٔ مردم این دنیا امکاناتی مانند تو ندارند.
این مصاحبه دو ساعت طول میکشید، و طی آن از شرکتکنندگان سؤالات مختلفی دربارهٔ زندگی شخصی و روزمره، تمایلات سیاسی، فعالیت در شبکههای اجتماعی، شغل و مسائل اجتماعی پرسیده میشد.
چه نتایجی از این مطالعه دربارهٔ هوش مصنوعی به دست آمد؟
بعد از انجام مصاحبهها و جمعآوری دادهها، محققان اطلاعات را به مدل زبان بزرگ (LLM) وارد کردند تا با استفاده از آنها رفتار شرکتکنندگان را شبیهسازی کند. یافتهها نشان دادند این هوش مصنوعی میتواند رفتارها و تصمیمهای انسانی را تا حد زیادی شبیهسازی کند.
محققانِ این مطالعه از شاخصهایی مختلف برای ارزیابیِ میزان دقت شبیهسازیها استفاده کردند. یکی از این شاخصها پنج جنبهٔ بزرگ شخصیت بود که توانست تا ۸۰درصد دقت در شبیهسازی ویژگیهای شخصیتی شرکتکنندگان نشان بدهد.
وقتی این مدلها در آزمایشهای پایهایِ اقتصاد مثل دوراهیِ زندانی و بازی دیکتاتور قرار گرفتند، نتایج نشان دادند شبیهسازیها توانستهاند تا حدود ۶۰درصد از تصمیمات واقعیِ شرکتکنندگان را تقلید نمایند.
این تحقیقات بهطور کلی موفقیتآمیز بودند، اما هنوز چالشهایی وجود دارند که باید به آنها پرداخته شود. برای نمونه، مدلهای هوش مصنوعی توانستند رفتارهای انسانی را بهطور کلی شبیهسازی کنند، اما در بعضی موارد مانند بازیهای اقتصادی، نتایج دقیقی شبیهِ تصمیمات واقعی شرکتکنندگان نداشتند.
این مسئله حاکی از آن است که هنوز تفاوتهایی میان تصمیمات واقعی انسانها و شبیهسازیهای مصنوعی وجود دارند که به تحقیقات بیشتری نیاز دارند.
یکی از نگرانیهای اصلی که در پی این تحقیق و مطالعات مشابه مطرح میشود، این است که چنین ابزارها و فناوریهایی میتوانند در دستان نادرست مورد سوءاستفاده قرار بگیرند.
در دنیای امروز که اطلاعات شخصی افراد از طریق شبکههای اجتماعی و سایر منابع عمومی بهراحتی در دسترس قرار میگیرند، چنین فناوریهایی میتوانند برای شبیهسازی شخصیتها و رفتارهای مردم استفاده شوند.
تصور کنید سیاستمداران یا شرکتهای خصوصی بتوانند با دادههای عمومی و شبیهسازیهای دقیق، نیازها و خواستههای مردم را پیشبینی کنند و تصمیمات مهمی را بر اساس آن اتخاذ نمایند.
البته این نگرانیها هنگامی جدی میشوند که فرض بر این باشد که شرکتها یا سیاستمداران از این ابزار برای طراحی پیامهای سیاسی یا تبلیغاتی دقیقاً مطابقِ الگوهای فکری و احساسی افراد استفاده کنند. چنین اقداماتی خطرات جدی برای آزادی فردی و دموکراسی جامعه همراه دارند.
جمعبندی
پژوهشهای محققان شرکت گوگل و دانشگاه استنفورد در زمینهٔ شبیهسازیهای هوش مصنوعی، یکی از دستاوردهای جالب و نوآورانه در علم داده و هوش مصنوعی به شمار میروند.
این فناوری بهطور بالقوه برای شبیهسازی رفتارهای اجتماعی، اقتصادی و سیاسی استفاده میشود، و به سیاستمداران و محققان کمک میکند تا بهتر از پیشبینیهای مردم و واکنشهایشان نسبت به مسائل مختلف آگاه شوند.