۲۰ بهمن ۱۴۰۴
به روز شده در: ۲۰ بهمن ۱۴۰۴ - ۱۰:۴۱
فیلم بیشتر »»
کد خبر ۱۰۴۸۱۲۹
تاریخ انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴
کد ۱۰۴۸۱۲۹
انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن
این سؤال مطرح است که چرا چت‌ جی‌ پی‌ تی (ChatGPT) اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت جدید تولید تصویر با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر؟

دیجیاتو در گزارشی به نگرانی‌ها درباره سوءاستفاده از فناوری چت‌جی‌پی‌تی برای تولید رسید جعلی پرداخت  و نوشت: 

اخیراً چت‌جی‌پی‌تی یک قابلیت تولید تصویر جدید را به‌عنوان بخشی از مدل 4o معرفی کرده است که در تولید متن داخل تصاویر بسیار خوب عمل می‌کند و می‌تواند رسیدهای جعلی طبیعی بسازد. افراد مختلف از این قابلیت برای ایجاد رسیدهای جعلی رستوران استفاده می‌کنند که می‌تواند ابزاری دیگر به مجموعه گسترده فناوری‌های دیپ‌فیک هوش مصنوعی اضافه کند که توسط کلاهبرداران به کار می‌رود.

«دیدی داس»، سرمایه‌گذار و کاربر فعال شبکه‌های اجتماعی، در شبکه اجتماعی ایکس، تصویری از یک رسید جعلی مربوط به یک استیک‌هاوس واقعی در سان‌فرانسیسکو منتشر کرد که به گفته او، با مدل 4o ایجاد شده است.

کاربران دیگر نیز موفق به بازتولید نتایج مشابه شدند، از جمله رسیدهایی که لکه‌های غذا یا نوشیدنی داشتند تا واقعی‌تر به نظر برسند.

تولید رسیدهای جعلی با استفاده از ChatGPT
تولید رسید جعلی با استفاده از ChatGPT

در فرانسه، یک کاربر در لینکدین تصویری از یک رسید جعلی چروک‌دار منتشر کرد که با هوش مصنوعی برای یک رستوران زنجیره‌ای ایجاد شده بود که بسیار طبیعی به نظر می‌رسد.

افشای تولید رسید جعلی با استفاده از ChatGPT
افشای تولید رسید جعلی با استفاده از ChatGPT

کاملاً واضح است که امکان ایجاد رسیدهای جعلی به‌سادگی، فرصت‌های بزرگی را برای کلاهبرداری فراهم می‌کند. تصور استفاده از این فناوری توسط افراد سودجو برای دریافت بازپرداخت هزینه‌های جعلی چندان دشوار نیست.

به گفته «تایا کریستینسون»، سخنگوی OpenAI، تمامی تصاویری که توسط چت‌جی‌پی‌تی ایجاد می‌شوند، شامل متادیتایی هستند که نشان می‌دهد این تصاویر با استفاده از این ابزار ساخته شده‌اند. او تأکید کرد که اوپن‌ای‌آی در صورت مشاهده نقض سیاست‌های استفاده از سوی کاربران، اقدامات لازم را انجام می‌دهد و همواره از بازخوردها و موارد استفاده واقعی برای بهبود عملکرد و افزایش امنیت مدل‌های خود بهره می‌برد.

افشای تولید رسید جعلی با استفاده از ChatGPT

افشای تولید رسید جعلی با استفاده از ChatGPT

بااین‌حال، این سؤال مطرح است که چرا ChatGPT اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر.

کریستینسون می‌گوید هدف اوپن‌ای‌آی ارائه بیشترین میزان آزادی خلاقانه به کاربران است. او همچنین اشاره کرد که رسیدهای جعلی ساخته‌شده با هوش مصنوعی لزوماً برای مقاصد متقلبانه استفاده نمی‌شوند، بلکه می‌توانند در زمینه‌های مختلفی مانند آموزش سواد مالی، خلق آثار هنری اوریجینال، طراحی تبلیغات و سایر کاربردهای خلاقانه مورد استفاده قرار گیرند.

گزارش: مهدی فروغی

ارسال به دوستان
«عباس شیبانی و مهدی بازرگان» در دادگاه نظامی؛ سال 1342(عکس) جواد امام بازداشت شد عجیب‌ترین خودروهای BMW؛ از وانت تا ابرخودروی 12 سیلندر (+تصاویر) خطر بیماری قلبی در مردان از ۳۵ سالگی آغاز می‌شود ادعای سی‌ان‌ان: بازدید ویتکاف و کوشنر از ناو آبراهام لینکلن به ایران اطلاع داده شده بود دوربین موبایل یا تحریف‌گر خاطرات؟ ۷ جمله‌ی سمی که ناخواسته شما را از چشم همسرتان می اندازد لرد پالمرستون؛ دولتمردی که "محاسبه" را به "شعار" ترجیح می‌داد کدام کشور آفریقایی بالاترین دستمزد را پرداخت می‌کند؟ کاهش تمایل خانواده‌ها به فرستادن فرزندان به مدرسه/ علت چیست؟ حمله روزنامه جوان به معاون پزشکیان: شما نظریه پردازی نکن! فصل چهارم FROM با تیزری شوم تاریخ پخش خود را اعلام کرد نسخه‌ ساده در پیشگیری از بازگشت آریتمی قلب «جواد عزتی» در پشت صحنه فصل دوم سریال وحشی ادعای روزنامه اسرائیلی: هیچ توافقی درکار نیست/ هدف آمریکا از مذاکره، فراهم کردن پشتوانه نظامی است