۲۶ آذر ۱۴۰۴
به روز شده در: ۲۶ آذر ۱۴۰۴ - ۲۲:۰۲
فیلم بیشتر »»
کد خبر ۱۰۳۷۱۰۶
تاریخ انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳
کد ۱۰۳۷۱۰۶
انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد
در پژوهش جدیدی محققان چینی نشان دادند ۲ مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها]است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.» هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.
محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.
 
به گزارش دیجیاتو به نقل از Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»
 
هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.
 
البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»
 
در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.
 
محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
 
به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.
ارسال به دوستان
شروع عملیات نظامی آمریکا در اکوادور رکوردشکنی قیمت رجیستری آیفون؛ فعال‌سازی آیفون ۱۷ پرو مکس ۶۵ میلیون تومان شد! (+جدول هزینه رجیستری مدل های آیفون) نام گروسی در میان مخاطبان موبایل هک‌شده‌ مقام اسرائیلی جان باختن ۲ کودک در سیل استان‌های فارس، هرمزگان و خوزستان تخلیه اضطراری یک روستا در قشم به دلیل طوفان شدید پایان تلخ فعالیت تنیسور فرانسوی؛ محرومیت ۲۰ ساله برای سلطان تبانی به بهانه مرگ زن کوهنورد ایرانی در آغوش سرد دماوند: به انتخابش احترام می‌گذاریم تماس مرد نجات‌یافته از مرگ با اورژانس: دندان‌هایم کو؟ وسوسه میلیون دلاری برای طلایی المپیک؛ کودی میلر راهی مسابقات «دوپینگ آزاد» شد اختصاص درآمدهای جام جهانی ۲۰۲۶ به بازسازی غزه؛ تصمیم بزرگ فیفا در دوحه هشدار یک متخصص: آنفلوآنزا شوخی نیست؛ دو روز طلایی درمان را از دست ندهید VAR به ورزشگاه یادگار امام رسید؛ تدابیر ویژه برای نبرد تراکتور و پرسپولیس شمارش معکوس برای نبرد آسیایی استقلال؛ ساپینتو در پی انتقام و صعود از بحرین سردار شکارچی: بخش اعظم شبکه جاسوسی دشمن خنثی شده است واکنش حمید رسایی به تصویر بی‌حجاب «شیرین سعیدی» در روزنامه همشهری: عذرخواهی می‌کنند