تحقیق گوگل و استنفورد: هوشی مصنوعی که درست مثل خودتان فکر می‌کند!

30

در دنیای پیشرفتهٔ فناوری شاهد ابداعاتی جدید –و چه‌بسا گاهی اوقات هراس‌انگیز– و ابزارهایی پیچیده مبتنی بر هوش مصنوعی هستیم که قادر به انجام کارهایی شگفت‌انگیزی هستند! یکی از جدیدترین پژوهش‌ها در این زمینه، مطالعه‌ای مشترک بین گوگل و دانشگاه استنفورد است که نشان می‌دهد هوش مصنوعی می‌تواند رفتار و شخصیت انسان‌ها را با دقتی بالا تقلید کند.

این تحقیق با عنوان شبیه‌سازی عامل‌های تولیدیِ هزار نفر (Generative Agent Simulations of 1,000 People) حاکی از آن است که محققان فقط با مصاحبه‌ای دوساعته با هر فردی می‌توانند هوشی مصنوعی بسازند که رفتارهای فردیِ او را با دقتی ۸۵درصدی شبیه‌سازی کند.

چرا این مطالعهٔ شبیه‌سازی انجام شد؟

محققانِ این پروژهٔ مطالعاتی قصد داشتند نشان بدهند می‌توان از مصاحبه‌ای معمولی برای ایجاد شبیه‌سازی‌هایی از رفتار افراد استفاده کرد.

آن‌ها با مصاحبه‌ای دوساعته، اطلاعاتی دربارهٔ ویژگی‌های فردی مانند نژاد، جنسیت، رویکرد سیاسی، درآمد و حتی استری‌های شغلیِ شرکت‌کنندگان جمع‌آوری کردند.

سپس داده‌های به‌دست‌آمده از این مصاحبه‌ها به مدل یادگیری ماشین (LLM) داده شد تا برای ایجاد «عامل‌های تولیدی» (generative agents) از آن‌ها استفاده کند.

هدف از این پروژه شبیه‌سازی انسانی در جهتِ شبیه‌سازیِ رفتارهای فردی و جمعی برای استفاده در موقعیت‌های مختلف اجتماعی، اقتصادی و سیاسی بود.

به عبارت ساده‌تر، محققان امیدوار بودند سایر محققان و حتی سیاست‌مداران بتوانند با استفاده از این نوع هوش مصنوعی نظرات و رفتارهای مردم را به‌راحتی شبیه‌سازی کنند، و برای پیش‌بینی واکنش‌ها نسبت به سیاست‌ها، تبلیغات یا بحران‌های اجتماعی از آن‌ها استفاده نمایند.

چگونه این تحقیق را در گوگل و استنفورد انجام دادند؟

محققان با همکاریِ شرکتی به‌نام Bovitz –فعال در حوزهٔ تحقیقات بازار– تعداد ۱۰۵۲ نفر را برای انجام این مطالعه انتخاب کردند. این شرکت‌کنندگان از میان ساکنان ایالات متحده به‌طور تصادفی انتخاب شدند تا نمونه‌ای متنوع از جمعیتِ این کشور لحاظ شود.

هر شرکت‌کننده بعد از ثبت‌نام در پلتفرمی اختصاصی که برای این مطالعه طراحی شده بود، یک آواتار دوبُعدی (2D sprite) برای خودش ایجاد کرد. سپس با مصاحبه‌کننده‌ای مبتنی بر هوش مصنوعی (AI interviewer) که به‌صورت آواتار ظاهر می‌شد، گفت‌وگو نمود.

اسکرین‌شاتی از صفحهٔ گفت‌وگوی شرکت‌کنندگانِ مطالعه با عامل هوش مصنوعی

در ابتدای مصاحبه از شرکت‌کنندگان خواسته شد دو خط اولِ کتاب گتسبی بزرگ (The Great Gatsby) را بخوانند تا سیستم بتواند صداها را کالیبره کند. این دو خط عبارت بودند از:

در سال‌های جوانی و آسیب‌پذیری، پدرم نصیحتی کرد که از همان زمان تا امروز در ذهنم مانده است: هر وقت خواستی کسی را سرزنش کنی، به یاد داشته باش که همهٔ مردم این دنیا امکاناتی مانند تو ندارند.

این مصاحبه دو ساعت طول می‌کشید، و طی آن از شرکت‌کنندگان سؤالات مختلفی دربارهٔ زندگی شخصی و روزمره، تمایلات سیاسی، فعالیت در شبکه‌های اجتماعی، شغل و مسائل اجتماعی پرسیده می‌شد.

چه نتایجی از این مطالعه دربارهٔ هوش مصنوعی به دست آمد؟

بعد از انجام مصاحبه‌ها و جمع‌آوری داده‌ها، محققان اطلاعات را به مدل زبان بزرگ (LLM) وارد کردند تا با استفاده از آن‌ها رفتار شرکت‌کنندگان را شبیه‌سازی کند. یافته‌ها نشان دادند این هوش مصنوعی می‌تواند رفتارها و تصمیم‌های انسانی را تا حد زیادی شبیه‌سازی کند.

محققانِ این مطالعه از شاخص‌هایی مختلف برای ارزیابیِ میزان دقت شبیه‌سازی‌ها استفاده کردند. یکی از این شاخص‌ها پنج جنبهٔ بزرگ شخصیت بود که توانست تا ۸۰درصد دقت در شبیه‌سازی ویژگی‌های شخصیتی شرکت‌کنندگان نشان بدهد.

وقتی این مدل‌ها در آزمایش‌های پایه‌ایِ اقتصاد مثل دوراهیِ زندانی و بازی دیکتاتور قرار گرفتند، نتایج نشان دادند شبیه‌سازی‌ها توانسته‌اند تا حدود ۶۰درصد از تصمیمات واقعیِ شرکت‌کنندگان را تقلید نمایند.

این تحقیقات به‌طور کلی موفقیت‌آمیز بودند، اما هنوز چالش‌هایی وجود دارند که باید به آن‌ها پرداخته شود. برای نمونه، مدل‌های هوش مصنوعی توانستند رفتارهای انسانی را به‌طور کلی شبیه‌سازی کنند، اما در بعضی موارد مانند بازی‌های اقتصادی، نتایج دقیقی شبیهِ تصمیمات واقعی شرکت‌کنندگان نداشتند.

این مسئله حاکی از آن است که هنوز تفاوت‌هایی میان تصمیمات واقعی انسان‌ها و شبیه‌سازی‌های مصنوعی وجود دارند که به تحقیقات بیشتری نیاز دارند.

یکی از نگرانی‌های اصلی که در پی این تحقیق و مطالعات مشابه مطرح می‌شود، این است که چنین ابزارها و فناوری‌هایی می‌توانند در دستان نادرست مورد سوءاستفاده قرار بگیرند.

در دنیای امروز که اطلاعات شخصی افراد از طریق شبکه‌های اجتماعی و سایر منابع عمومی به‌راحتی در دسترس قرار می‌گیرند، چنین فناوری‌هایی می‌توانند برای شبیه‌سازی شخصیت‌ها و رفتارهای مردم استفاده شوند.

تصور کنید سیاست‌مداران یا شرکت‌های خصوصی بتوانند با داده‌های عمومی و شبیه‌سازی‌های دقیق، نیازها و خواسته‌های مردم را پیش‌بینی کنند و تصمیمات مهمی را بر اساس آن اتخاذ نمایند.

البته این نگرانی‌ها هنگامی جدی می‌شوند که فرض بر این باشد که شرکت‌ها یا سیاست‌مداران از این ابزار برای طراحی پیام‌های سیاسی یا تبلیغاتی دقیقاً مطابقِ الگوهای فکری و احساسی افراد استفاده کنند. چنین اقداماتی خطرات جدی برای آزادی فردی و دموکراسی جامعه همراه دارند.

جمع‌بندی

پژوهش‌های محققان شرکت گوگل و دانشگاه استنفورد در زمینهٔ شبیه‌سازی‌های هوش مصنوعی، یکی از دستاوردهای جالب و نوآورانه در علم داده و هوش مصنوعی به شمار می‌روند.

این فناوری به‌طور بالقوه برای شبیه‌سازی رفتارهای اجتماعی، اقتصادی و سیاسی استفاده می‌شود، و به سیاست‌مداران و محققان کمک می‌کند تا بهتر از پیش‌بینی‌های مردم و واکنش‌هایشان نسبت به مسائل مختلف آگاه شوند.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.