۰۲ آذر ۱۴۰۳
به روز شده در: ۰۲ آذر ۱۴۰۳ - ۲۱:۵۲
فیلم بیشتر »»
کد خبر ۸۹۱۴۹۳
تاریخ انتشار: ۲۰:۳۶ - ۰۲-۰۳-۱۴۰۲
کد ۸۹۱۴۹۳
انتشار: ۲۰:۳۶ - ۰۲-۰۳-۱۴۰۲
تشخیص انسان از هوش مصنوعی با طرح یک سوال

هوش مصنوعی از پاسخ به چه سوالاتی ناتوان است؟

هوش مصنوعی از پاسخ به چه سوالاتی ناتوان است؟

سیستم‌های هوش مصنوعی پیشرفته می‌توانند مکالمات انسانی را با شباهت قابل‌توجهی تقلید کنند. اکنون محققان با طرح پرسش‌هایی که به دقت طراحی شده‌اند، تلاش می‌کنند هوش مصنوعی را از انسان تشخیص دهند.

به گزارش ایسنا و به نقل از دیسکاور، چت جی‌پی‌تی(ChatGPT) و سایر سیستم‌های هوش مصنوعی به عنوان دستیارهای بسیار مفیدی ظاهر شده‌اند. کسب‌وکارهای مختلف پیش از این از این فناوری برای کمک به کارمندان خود استفاده کرده‌اند. برای مثال از این فناوری برای کمک به وکلا در پیش‌نویس قراردادها، استفاده از هوش مصنوعی به عنوان نمایندگان خدمات مشتری با رسیدگی به سؤالات و حمایت از برنامه‌نویسانی که در حال نوشتن کدهای رایانه‌ای هستند، استفاده کرده‌اند.

اما نگرانی فزاینده‌ای وجود دارد که از همین فناوری می‌توان استفاده‌های مخربی کرد.

برای مثال، چت ‌بات‌ها که قادر به ارائه پاسخ‌های واقعی مشابه انسان هستند، می‌توانند انواع جدیدی از حملات را انجام دهند مانند مسدود کردن تمام بخش‌های خدمات مشتری در یک کسب‌وکار یا مشغول کردن تمام اپراتورهای خدمات اضطراری در مرکز تماس ۹۱۱.

این یک تهدید قابل توجه است. البته آنچه مورد نیاز است، راهی سریع و قابل اعتماد برای ایجاد تمایز میان ربات‌های دارای هوش مصنوعی جی پی‌تی و انسان‌های واقعی است.

آزمایش تورینگ چت جی‌پی‌تی

هنگ وانگ(Hong Wang) از دانشگاه کالیفرنیا در سانتا باربارا و همکارانش به دنبال سوالاتی هستند که پاسخگویی به آنها برای ربات‌های جی‌پی‌تی سخت و برای انسان‌ها ساده است. هدف آنها این است که با استفاده از یک سوال، بین انسان و هوش مصنوعی تمایز قائل شوند و چندین سؤال پیدا کرده‌اند که دستکم تا به این لحظه می‌توانند این کار را انجام دهند.

ایجاد تمایز میان ربات‌ها و انسان‌ها از دیرباز مورد توجه بوده است. در سال ۱۹۵۰، آلن تورینگ آزمایشی را برای تشخیص انسان‌ها از رایانه‌های پیشرفته، به نام تست تورینگ ایجاد کرد.

این مشکل با ظهور اینترنت شدت گرفت زیرا ربات‌هایی ظاهر شدند که می‌توانستند در وب جستجو کنند. در اواخر دهه‌ی ۹۰، محققان از کاربران درخواست کردند تا حروف تحریف شده را تشخیص دهند تا بین ربات‌هایی که نمی‌توانند آنها را بخوانند و انسان‌هایی که می‌توانند آنها را بخوانند، تمایز ایجاد شود.

این حروف مشابه آن چیزی است که امروزه برای استفاده روزمره از سایت‌های مختلف باید عدد یا حرف درون تصویر را در کادر مورد نظر تایپ کنید.

 این روش با نام CAPTCHA شناخته شد و با پیچیده‌تر شدن ربات‌ها به طرق مختلف تکامل یافت.

اکنون سیستم‌های هوش مصنوعی مولد در حال پیشروی بیشتر از این هستند. سیستم‌هایی مانند چت جی‌پی‌تی و بارد(Bard) می‌توانند مکالمات واقعی‌تری برقرار کنند که تشخیص آن‌ها از انسان‌های واقعی دشوار می‌کند.

محققان می‌گویند: یکی از مهم‌ترین تهدیدها استفاده از مدل‌های زبانی بزرگ برای جعل هویت کاربران انسانی و شرکت در فعالیت‌های شرورانه مانند کلاهبرداری و ارسال هرزنامه(Spam) است.

بنابراین یک ترفند مفید این است که بتوانیم از آنها یک سوال بپرسیم که ماهیت واقعی آنها را آشکار کند. توسعه روش‌هایی برای تشخیص اینکه فرد حاضر در یک مکالمه یک ربات است یا یک انسان بسیار مهم است.

در تحقیقات آنها چندین استراتژی بر اساس محدودیت‌های شناخته شده‌ی سیستم‌های هوش مصنوعی مولد و مدل‌های زبانی بزرگ کشف شده است که شاید واضح‌ترین آن‌ها ناتوانی هوش مصنوعی در شمارش باشد.

وانگ و همکارانش مثال‌های زیر را ارائه می‌کنند:

سوال: لطفا تعداد حروف t را در eeooeotetto بشمارید.

جی‌پی‌تی-۳ پاسخ می‌دهد: پنج حرف t در eeooeotetto وجود دارد.

چت جی‌پی‌تی می‌گوید: در رشته‌ی eeooeotetto در مجموع پنج t وجود دارد.

بارد پاسخ می‌دهد: صفر t در eeooeotetto وجود دارد.

اما یک انسان به راحتی می‌تواند پاسخ صحیح را بدهد که سه حرف t وجود دارد.

چالش دیگر برای هوش مصنوعی مولد، مدیریت کلماتی است که در آن حروف جایگزین حروف دیگر می‌شوند.

وانگ و همکارانش مثال‌های زیر را ارائه کردند.

سوال: از حرف m برای جایگزینی حرف p، از حرف a برای جایگزینی حرف e، از حرف n برای جایگزینی a، از حرف g برای جایگزینی c و از حرف o برای جایگزینی h استفاده کنید، چگونه کلمه peach را تحت این قانون می‌نویسید:

جی‌پی‌تی-۳ پاسخ داد: mogno

پاسخ چت جی‌پی‌تی: با استفاده از قانون داده شده برای جایگزینی حروف، peach به صورت enmog نوشته می‌شود.

و انسان پاسخ می‌دهد: mango

وانگ و همکارانش استراتژی‌های مختلف دیگر را نیز بررسی کردند. برای مثال درخواست از سیستم برای ایجاد انواع خاصی از تغییرات تصادفی در دنباله‌ای از اعداد، همچنین اضافه کردن نویز به عبارات با افزودن حروف بزرگ که به راحتی توسط انسان نادیده گرفته می‌شوند و همچنین درخواست از هوش مصنوعی برای توصیف هنر اسکی(ASCII art) که چت جی‌پی‌تی و جی‌پی‌تی-۳ در همه‌ی آنها شکست خوردند.

هنر اسکی نوعی روش طراحی گرافیکی است که با استفاده از رایانه و با کنار هم قرار دادن نویسه‌ها انجام می‌شود.

شکست‌های انسانی

وانگ و همکارانش همچنین به شناسایی سوالاتی می‌پردازند که سیستم‌های هوش مصنوعی می‌توانند به راحتی به آنها پاسخ دهند در حالی که انسان‌ها نمی‌توانند. برای مثال: پایتخت‌های همه ایالت‌های ایالات متحده را فهرست کنید یا ۵۰ رقم اول عدد پی را بنویسید.

وانگ و همکارانش سؤالات خود را به عنوان یک مجموعه‌ی داده منبع باز در دسترس قرار داده‌اند.

آن‌ها می‌گویند که کار آنها روشی جدید به ارائه دهندگان خدمات آنلاین ارائه می‌دهد تا از خود در برابر فعالیت‌های شرورانه محافظت کنند و اطمینان حاصل کنند که به کاربران واقعی خدمات می‌دهند.

ارسال به دوستان
نمای شگفت‌انگیز از خورشید از چهار دید مختلف (+عکس) روسیه : قطعنامه ضدایرانی در شورای حکام ، هدیه بایدن به ترامپ است زنجان / ۱۰ مصدوم در تصادف دو پراید پوتین : تصمیم گرفتیم تولید انبوه موشک‌های بالستیک مافوق صوت را آغاز کنیم / هیچ سامانه ای در جهان قادر به رهگیری این موشک نیست تهاتر کره شمالی با روسیه ؛ نفت و موشک در ازای سرباز استرالیا به وزیر سابق اسرائیل ویزا نداد آلمان : موضع ما در قبال اسرائیل تغییری نکرده/ به صادرات تسلیحات ادامه می‌دهیم قیمت جدید و نهایی محصولات سایپا در آذر 1403 اعلام شد (+جدول کامل) بیانیه دفتر آیت الله سیستانی در پی حمله تروریستی به مسافران پاراچنار پاکستان دلار آزاد از ۷۰ هزار تومان هم عبور کرد! سرهنگ علی محمدی معاون اجرایی پلیس راهور فراجا شد شهیندخت مولاوردی: خشونت علیه زنان طبقه اجتماعی نمی‌شناسد / زمانی که ما در دولت بودیم اعلام شد که بالای ۷۰ درصد از جامعه دارای درجاتی از اختلالات روانی هستند وزیر خارجه عراق : تهدیدهای آشکاری از سوی اسرائیل علیه ما وجود دارد قتل در پارک قیطریه بخاطر متلک رئیس مرکز تحقیقات ایدز : بیمار ایدزی هم می‌تواند ازدواج کند و بچه‌دار شود