۲۰ بهمن ۱۴۰۴
به روز شده در: ۲۰ بهمن ۱۴۰۴ - ۱۷:۲۵
فیلم بیشتر »»
کد خبر ۱۰۳۷۱۰۶
تاریخ انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳
کد ۱۰۳۷۱۰۶
انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد
در پژوهش جدیدی محققان چینی نشان دادند ۲ مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها]است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.» هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.
محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.
 
به گزارش دیجیاتو به نقل از Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»
 
هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.
 
البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»
 
در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.
 
محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
 
به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.
پربیننده ترین پست همین یک ساعت اخیر
ارسال به دوستان
رئیس دفتر نهاد رهبری در وزارت علوم: ۱۰۰ دانشجوی بازداشتی داشتیم که اکثرا آزاد شدند واکنش روابط عمومی معاونت اجرایی ریاست جمهوری به اظهارات یکی از نمایندگان مجلس درباره قائم‌پناه ایلان ماسک: یک شهر روی ماه می‌سازم درباره پزشکیان و شبکه خبر که "مهم نیست" مسکو: نیروهای انگلیسی در خاک اوکراین حضور دارند استعفای سفیر نروژ پس از افشای ارتباط با جفری اپستین سرانه مصرف عسل در ایران حدود ۱۳۰۰ گرم در سال است تست پرواز مدل های جدید سوخو-57 (فیلم) قوه قضائیه ادعای صدور حکم اعدام برای یک ورزشکار را تکذیب کرد گرانی بی‌رویه لوازم خانگی؛ آیا ارز تک‌نرخی مقصر است؟ پیش‌بینی سازمان ملل از بهبود شرایط اقتصادی ایران در ۲۰۲۶ معاون اجرایی رئیس‌جمهور: نمی‌توان نسلی را پرورش داد که از رایانه، هوش مصنوعی و روش‌های مدرن آموزشی فاصله داشته باشد ایرلاین‌ها دیگر اجازه سوخت‌گیری در کوبا ندارند اعلام آمادگی عمان برای سرمایه‌گذاری در منطقه آزاد چابهار ورودی سد‌ها تقریباً با خروجی آنها برابر است