۰۳ دی ۱۴۰۳
به روز شده در: ۰۳ دی ۱۴۰۳ - ۰۵:۳۰
فیلم بیشتر »»
کد ۸۹۴۰۸۷
انتشار: ۱۵:۲۵ - ۲۵-۰۳-۱۴۰۲

۴ راه خالی کردن حساب بانکی و نابودی زندگی‌ افراد توسط هوش مصنوعی!

۴ راه خالی کردن حساب بانکی و نابودی زندگی‌ افراد توسط هوش مصنوعی!
همزمان با پیچیده تر شدن هوش مصنوعی، جعل‌های عمیق و اطلاعات نادرست نیز همچنان یکی از نگرانی‌های اصلی خواهد بود. الاشاب در این باره گفت: جعل‌های عمیق تولید شده توسط هوش مصنوعی، که تصاویر، صدا یا ویدیوها را دستکاری می‌کنند، خطراتی را از نظر انتشار اطلاعات نادرست و تأثیر بالقوه بر افکار عمومی یا آسیب رساندن به شهرت به همراه دارند. بازیگران عرصه جعل عمیق در حال حاضر از هوش مصنوعی برای انجام حملات شبیه‌سازی شده صوتی استفاده می‌کنند که با تقلید از صدای یک فرد، خانواده یا دوستان او  را بدون پول فریب می‌دهند.

یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانی‌ها در حالی عنوان می‌شوند که این فناوری همچنان در حال تکامل است.

به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخش‌ها  توانسته‌اند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.در تنظیمات پیشرفته تر، هوش مصنوعی به ساخت واکسن و محاسبه معادلات پیچیده فیزیک برای دانشمندان کمک می‌کند. این‌ها تنها چند نمونه از شاهکارهای چشمگیر متعددی است که این فناوری تا به امروز انجام داده است. با این حال، مانند همه پیشرفت‌های تکنولوژیکی، مسائل و چالش‌های زیادی نیز پیرامون هوش مصنوعی پیچیده وجود دارد. یوسف الاشاب، مشاور و مهندس امنیت ابری و مشاور « DevOps» و مهندس « itcertificate.org» نگرانی‌های کلیدی خود در این باره  را با روزنامه سان در میان گذاشت.


حملات سایبری با استفاده از هوش مصنوعی

الاشاب گفت: «ما می‌توانیم پیش بینی کنیم که مجرمان سایبری از هوش مصنوعی برای توسعه روش‌های حمله پیچیده استفاده کنند.»این حملات شامل ایمیل‌های «فیشینگ نیزه‌ای یا هدفمند» ایجاد شده توسط هوش مصنوعی یا بدافزارهای مبتنی بر این فناوری است که سازگار می‌شوند و تکامل می‌یابند. «فیشینگ نیزه‌ای» یک تلاش هدفمند برای سرقت اطلاعات حساس از یک قربانی خاص است. این نوع «فیشینگ» اغلب برای دسترسی به حساب های مالی و شخصی قربانی انجام می‌شود. کارشناسان اخیرا بدافزارهای جهش یافته را مشاهده کرده‌اند. عوامل تهدید و حملات سایبری از ChatGPT OpenAI برای تولید بدافزارهای مخرب استفاده می‌کردند.


هوش مصنوعی دشمن

الاشاب  گفت: «هوش مصنوعی دشمن» یکی دیگر از نگرانی‌های اصلی کارشناسان است و به سوء استفاده از آسیب پذیری‌ها در سیستم‌های هوش مصنوعی اشاره دارد. این آسیب پذیری‌ها در سیستم‌های هوش مصنوعی می‌تواند به هکرها کمک کند تا اقدامات امنیتی را دور بزنند یا مدل‌های هوش مصنوعی را دستکاری کنند تا خروجی های گمراه کننده بدهند. یکی از نمونه‌های آن دستکاری هوش مصنوعی برای به خطر انداختن محرمانه بودن اطلاعات بیماران یا مشتریان به منظور سرقت داده‌ها یا پول آن‌ها است.


جعل‌های عمیق

همزمان با پیچیده تر شدن هوش مصنوعی، جعل‌های عمیق و اطلاعات نادرست نیز همچنان یکی از نگرانی‌های اصلی خواهد بود. الاشاب در این باره گفت: جعل‌های عمیق تولید شده توسط هوش مصنوعی، که تصاویر، صدا یا ویدیوها را دستکاری می‌کنند، خطراتی را از نظر انتشار اطلاعات نادرست و تأثیر بالقوه بر افکار عمومی یا آسیب رساندن به شهرت به همراه دارند. بازیگران عرصه جعل عمیق در حال حاضر از هوش مصنوعی برای انجام حملات شبیه‌سازی شده صوتی استفاده می‌کنند که با تقلید از صدای یک فرد، خانواده یا دوستان او  را بدون پول فریب می‌دهند.


نگرانی‌های اخلاقی

البته، این انتظار بیجا نیست که با تکامل هوش مصنوعی، نگرانی‌های اخلاقی و نگرانی‌های درباره امنیت حریم خصوصی بیشتری ایجاد شود. الاشاب گفت: افزایش اتکا به هوش مصنوعی در امنیت سایبری سوالاتی را در مورد حریم خصوصی داده‌ها، تعصب الگوریتمی و استفاده اخلاقی از سیستم‌های هوش مصنوعی ایجاد می‌کند. تعدادی از الگوریتم‌های هوش مصنوعی در گذشته نشان داده‌اند که تعصبات نژادی و جنسیتی در این فناوری رایج است.امروزه هوش مصنوعی نیز به طور فزاینده‌ای در دادگاه ها مورد استفاده قرار می‌گیرد، با این حال، فناوری هوش مصنوعی مستعد عدم دقت و حتی تبعیض است. برای مقابله با چنین نگرانی‌هایی، کارشناسان در حال تماس با آژانس‌های قانون‌گذاری برای تنظیم مقررات هستند. اخیرا، یونسکو توصیه‌ نامه‌ای درباره اخلاق هوش مصنوعی برای تعیین استاندارد جهانی برای نهادهای حاکم ایجاد کرده است.

منبع: همشهری آنلاین

ارسال به دوستان