۲۷ آذر ۱۴۰۴
به روز شده در: ۲۷ آذر ۱۴۰۴ - ۱۴:۰۴
فیلم بیشتر »»
کد خبر ۱۱۲۲۱۲۴
تاریخ انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴
کد ۱۱۲۲۱۲۴
انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند
طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

مدل‌های هوش مصنوعی به‌سرعت در حال رشد و توسعه هستند. شرکت‌های فناوری هرکدام به شکلی سعی می‌کنند از این رقابت عقب نمانند. این مدل‌ها از مراقبت‌های بهداشتی و مالی گرفته تا سرگرمی و ارتباطات هوش مصنوعی برای عامه مردم تبدیل به محل اعتماد شده است.

به گزارش همشهری آنلاین، اگرچه این فناوری مزایای باورنکردنی دارد، اما خطرات جدی نیز به همراه دارد، به‌خصوص از جانب برخی از ابزارهای هوش مصنوعی که پتانسیل سوءاستفاده یا عواقب ناخواسته را دارند. ممکن است به سبب تبلیغات اعتماد ما به مدل‌های مطرح‌تر بیشتر باشد اما برخی از آنها بیشترین میزان پاسخ غلط را دارند.

 جای تعجب است که بسیاری از این فناوری‌های خطرناک همچنان در معرض توجه بحث‌های اصلی قرار دارند و افراد، سازمان‌ها و سیاستگذاران برای مقابله با آنها آماده نیستند. در این مطلب برخی از پراشتباه‌ترین مدل‌های هوش مصنوعی را بررسی خواهیم کرد.

شفافیت برای گمراه‌نشدن

پیشرفت‌های حاصل از مدل‌های زبان بزرگ در سال ۲۰۲۳، علاقه گسترده‌ای را به پتانسیل متحول‌کننده هوش مصنوعی نسل جدید تقریبا در هر صنعتی برانگیخت. ابزار ChatGPT از شرکت OpenAI در مرکز این افزایش علاقه قرار داشت، اما این فناوری هنوز راه درازی در پیش دارد تا بتواند به‌طور قابل اعتمادی بر اکثر فرایندها غلبه کند.

مثال برای چت جی‌پی‌تی که بیشترین استقبال را از طرف مردم زیاد و حتی بازگویی آن تکراری است. اما روشنگری و شفاف‌سازی‌ در این زمینه می‌تواند هم به ارتقای سطح الگوریتم این مدل‌ها و هم توجه بیشتر مردم در مسیر اعتماد بی‌چون و چرا به این فناوری کمک کند.

چه چیزی یک ابزار هوش مصنوعی را خطرناک می‌کند؟

احتمال سوءاستفاده: می‌توان از آن برای کلاهبرداری، نظارت یا دستکاری استفاده کرد.

عدم‌شفافیت: ممیزی یا کنترل این سیستم جعبه سیاه دشوار است.

تشدید تعصبات: کلیشه‌های مضر یا تبعیض را تقویت می‌کند.

تجاوز به حریم خصوصی: امکان دسترسی غیرمجاز یا سوءاستفاده از داده‌های شخصی را فراهم می‌کند.

خودمختاری در اقدامات مضر: می‌تواند بدون نظارت انسانی عمل کند و باعث آسیب شود.

کدام مدل هوش مصنوعی بیشترین پاسخ غلط را دارد؟

طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

گراک-۳: ۹۴درصد

گراک-۲: ۷۷درصد

جمینای: ۷۶درصد

دیپ‌سیک: ۶۸درصد

چت جی‌پی‌تی: ۶۷درصد

پرپلکسیتی پرو: ۴۵درصد

کوپایلوت: ۴۰درصد

پرپلکسیتی: ۳۷درصد

ارسال به دوستان
بلوبانک سامان: خدمات بانکی بدون اختلال در دسترس مشتریان است یوتیوب حق پخش اسکار را خرید ؛ از 2029 رایگان در سراسر جهان چراغ سبز کنگره آمریکا به ترامپ برای حمله نظامی به ونزوئلا تمدید مهلت جشنواره ساخت تیزر تبلیغاتی خدمت کارت رفاهی بانک رفاه نتانیاهو وجود آمریکا را به یهودیان منتسب کرد: اگر یهودیان شکست می خوردند، ایالات متحده هم وجود نداشت (فیلم) افشای جزئیات دستمزد کارگران در ۱۴۰۵ ؛ حقوق کارگران بالاخره واقعی می‌شود؟ پزشکیان: از فروش گاز و بنزین می توانیم 160 میلیارد دلار درآمد داشته باشیم اما بخش زیادی را خودمان مصرف می‌کنیم/هر خودرو ماهی 10 میلیون یارانه بنزین می گیرد/ به باک یارانه بدهیم یا به معیشت؟ /احتمال قطعی برق و گاز در زمستان دیدنی های امروز؛ از فسیل جمجمه مرد جاوه ای تا تفنگداران دریایی آمریکا در کارائیب از مونا کرمی تا سپند امیرسلیمانی؛ حضور زوج‌های هنری در پشت‌صحنه «باران اسیدی» (عکس) معیشت کارگران: اکنون میان دو هیچ نگاهی به زرادخانه سلاح‌های ایرانی ونزوئلا البرادعی: 4 هزار کلاهک هسته ای، روی موشک ها و زیر جنگنده ها، آماده شلیک اند "سود سهام رزمندگان"؛ هدیه کریسمسی ترامپ به سربازان آمریکایی دستیار ترامپ: نفت ونزوئلا متعلق به آمریکا است رشد تجارت خارجی غیرنفتی کشور