۰۳ دی ۱۴۰۳
به روز شده در: ۰۳ دی ۱۴۰۳ - ۰۴:۰۰
فیلم بیشتر »»
کد خبر ۸۸۶۵۰۰
تاریخ انتشار: ۱۱:۲۷ - ۲۵-۰۱-۱۴۰۲
کد ۸۸۶۵۰۰
انتشار: ۱۱:۲۷ - ۲۵-۰۱-۱۴۰۲

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
با وجود گذشت دهه‌ها از ساخت اولین سیستم‌های هوش مصنوعی، ما هنوز درک درستی از عملکرد این فناوری نداریم و احتمالاً هرگز نخواهیم داشت.

دیجیاتو نوشت*: «جک دی کوان»، ریاضی‌دان و زیست‌شناسی نظری در سال 1956 در سفری یک‌ساله به لندن به ملاقات «ویلفرد تیلور» و «دستگاه یادگیری» عجیب‌وغریب او رفت. او از دیدن دستگاه بزرگ و پیچیده‌ای که پیش رویش قرار داشت، شگفت‌زده شده بود. کوان تنها می‌توانست بایستد و عملکرد این ماشین را تماشا کند که ظاهراً داشت یک طرح حافظه را شبیه‌سازی می‌کرد؛ به‌عبارت دیگر این دستگاه می‌توانست یاد بگیرد که چگونه رابطه میان داده‌ها را بیابد و اطلاعات استخراج کند.

دستگاه تیلور شاید در ظاهر شبیه مجموعه بزرگی از مدارها بود که به هم لحیم و با مقدار زیادی سیم به یکدیگر متصل شده بودند، اما آن‌چه کوان می‌دید نمونه اولیه‌ای از یک شبکه عصبی بود؛ سیستمی که در نهایت پس از چند دهه به پیشرفته‌ترین فناوری‌های هوش مصنوعی از جمله ChatGPT تبدیل شد. فناوری زیربنایی ChatGPT همین شبکه عصبی اما پیشرفته‌تر است.

کوان و تیلور در سال 1956 می‌ایستادند و عملکرد این دستگاه را تماشا می‌کردند، اما نمی‌دانستند که این ماشین چگونه کارهای خود را انجام می‌دهد. پاسخ معمای مغز ماشینی تیلور در جایی میان «نورون‌های آنالوگ»، در رابطه میان حافظه ماشینی و از آن مهم‌تر، در این حقیقت وجود داشت که این عملکردهای خودکار را نمی‌توان به‌طور کامل توضیح داد.

عبارت شبکه عصبی دربرگیرنده دامنه وسیعی از سیستم‌هاست. به‌گفته شرکت آی‌بی‌ام، شبکه‌های عصبی‌های – که با عنوان شبکه‌های عصبی مصنوعی (ANN) یا شبکه‌های عصبی شبیه‌سازی‌شده (SNN) هم شناخته می‌شوند – زیرمجموعه‌ای از مبحث یادگیری ماشینی هستند و در دل الگوریتم‌های یادگیری عمیق قرار می‌گیرند. نکته مهم این‌جاست که این عبارت و شکل پیاده‌سازی آن با الهام از مغز انسان ساخته شده است و شیوه ارسال سیگنال توسط نورون‌های زیستی به یکدیگر را شبیه‌سازی می‌کند.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
شبکه‌های عصبی آینده هوش مصنوعی هستند
در مراحل ابتدایی شاید تردیدهایی درباره ارزش این سیستم‌ها وجود داشت، اما با گذشت سال‌ها، سیستم‌های هوش مصنوعی بیشتر و بیشتر به‌سمت شبکه‌های عصبی حرکت کردند. حالا گفته می‌شود که این شبکه‌ها آینده هوش مصنوعی را شکل خواهند داد. این فناوری پیچیدگی‌های زیادی را برای ما و آن‌چه ما را تعریف می‌کند، به‌وجود می‌آورند. اخیراً زمزمه‌هایی را در این رابطه شنیده‌ایم. گروهی از فعالان فناوری ازجمله ایلان ماسک خواستار توقف شش‌ماهه توسعه مدل‌های هوش مصنوعی شده‌اند تا درباره این پیچیدگی‌ها اطمینان بیشتری پیدا کنند.

البته ساده‌لوحانه است اگر این شبکه‌های عصبی را صرفاً به‌عنوان ابزارهای هیجان‌انگیز و داغ در نظر بگیریم. این فناوری مدت‌هاست که به زندگی ما وارد شده است. در سال 1989 گروهی از محققان آزمایشگاه AT&T Bell از روش انتشار معکوس استفاده کردند تا سیستمی را برای شناسایی کدهای پستی دست‌نویس آموزش بدهند. در همین اواخر، مایکروسافت از نسخه جدید بینگ پرده برداشت که با کمک هوش مصنوعی می‌تواند به کمک‌خلبان شما برای وبگردی تبدیل شود.

هوش مصنوعی با تکیه بر حجم عظیمی از داده‌ها برای یافتن الگوها می‌تواند برای انجام کارهایی مثل تشخیص سریع تصاویر استفاده شود. در نتیجه، برای مثال امروز سیستم‌های تشخیص چهره را داریم. همین ویژگی در تشخیص الگوها باعث به‌وجود آمدن ابزارهای دیگری مثل ابزارهای پیش‌بینی قیمت سهام شده است.

شبکه‌های عصبی شیوه درک و ارتباطات ما را هم تغییر می‌دهند. برای مثال سرویس گوگل ترنسلیت که توسط تیم گوگل Brain توسعه داده شده است، نمونه دیگری از این شبکه‌ها به‌حساب می‌آید. از طرفی، مردم دیگر نمی‌خواهند با کامپیوترها شطرنج یا شوگی بازی کنند. کامپیوترها تسلط بالایی بر قوانین دارند و با کمک شبکه‌های عصبی می‌توانند همه استراتژی‌ها و حرکات ممکن را به‌خاطر بیاورند و بسیار بهتر از انسان‌ها این بازی‌ها را انجام دهند.

ولی گستره قابلیت‌های این فناوری فقط به همین موارد محدود نمی‌شود. اگر جست‌وجوی ساده‌ای به‌دنبال پتنت‌های مربوط به شبکه‌های عصبی داشته باشید، به 135,828 نتیجه می‌رسید. با این سرعت بالای توسعه، احتمال این که ما بتوانیم یک روز اثر واقعی هوش مصنوعی را متوجه شویم، کم و کمتر می‌شود.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
لایه‌های اسرارآمیز ناشناختگی
توجه به تاریخ شبکه‌های عصبی نکته مهمی را درباره تصمیم‌گیری‌های خودکار به ما یادآوری می‌کند، تصمیم‌گیری‌هایی که حال حاضرمان را تعریف می‌کنند یا احتمالاً بر آینده‌مان اثر بزرگ‌تری خواهند گذاشت. همین تصمیم‌گیری‌های خودکار به ما نشان می‌دهد که احتمالاً با گذشت زمان درک کمتری نسبت به هوش مصنوعی و آثار آن پیدا خواهیم کرد.

هوش مصنوعی نه یک جعبه سیاه، بلکه چیزی است که ریشه آن به هدف و طراحی این سیستم‌ها برمی‌گردد. انسان همواره به‌دنبال چیزهای غیرقابل‌توضیح بوده است. هرچه یک سیستم ناشناخته‌تر باشد، تصور می‌شود که اصیل‌تر و پیشرفته‌تر است. مسئله فقط این نیست که این سیستم‌ها دارند پیچیده‌تر می‌شوند یا مالکیت‌های فکری جلوی دسترسی به سازوکارهای آن‌ها را می‌گیرد (هرچند مورد دوم بی‌تأثیر هم نیست). در عوض باید گفت کسانی که این فناوری را توسعه می‌دهد علاقه و اشتیاق خاصی نسبت به «ناشناختگی» دارند.

این رازآلودگی حتی در فرم و گفتمان شبکه‌های عصبی نهادینه شده است. این سیستم‌ها دارای لایه‌های عمیق زیادی هستند – که نام یادگیری عمیق از همین‌جا می‌آید – و در این اعماق لایه‌های مخفیانه‌ای وجود دارند که اسرارآمیزتر به‌نظر می‌رسند. اسرار این سیستم‌ها با فاصله زیادی از لایه‌های سطح در اعماق این سیستم‌ها قرار دارد.

احتمالش بالاست که هرچه اثر هوش مصنوعی در زندگی ما بیشتر شود، درک ما از چرایی و چگونگی این فناوری کمتر شود. امروزه افراد زیادی در تلاشند تا هوش مصنوعی را قابل‌درک کنند. ما می‌خواهیم بدانیم این فناوری چگونه کار می‌کند و تصمیم‌گیری‌های خود را انجام می‌دهد. اتحادیه اروپا از ریسک‌های غیرقابل‌پذیرش و کاربردهای خطرناک هوش مصنوعی نگران است. ازاین‌رو، آن‌ها مشغول کار روی قانون جدیدی برای هوش مصنوعی هستند که می‌خواهد استانداردهایی را برای توسعه ایمن، قابل‌اطمینان و اخلاقی این فناوری تدوین کند.

این قوانین جدید براساس نیاز به توضیح‌پذیری تنظیم می‌شوند، و درخواست می‌کنند که سیستم‌های هوش مصنوعیِ پرریسک مستندات مناسب، شفافیت، داده‌های قابل ردیابی، نظارت انسانی و دقت بالایی داشته باشند. این پیش‌نیازها می‌تواند ریسک خطرات این فناوری را کاهش دهد. وجود قوانین نه‌فقط برای ابزارهایی مثل سیستم‌های خودران اتومبیل‌ها بلکه برای تمام سیستم‌های آینده ضروری است، چون می‌توانند حقوق بشر را تهدید کنند.

این اقدامات بخشی از فراخوانی عمومی به‌منظور افزایش شفافیت در حوزه هوش مصنوعی است تا فعالیت‌ها در این زمینه قابل بررسی، حساب‌رسی و ارزیابی باشد. مثال دیگری که در این زمینه می‌توان زد سیاست‌های Royal Society در زمینه هوش مصنوعیِ توضیح‌پذیر است. این انجمن می‌گوید روزبه‌روز افراد بیشتری در سراسر دنیا خواستار شکلی از توضیح‌پذیری برای هوش مصنوعی هستند تا بتوان اصول اخلاقی را در طراحی و پیاده‌سازی این سیستم‌ها به کار گرفت.

بااین‌حال، داستان شبکه‌های عصبی به ما نشان می‌دهد که احتمالاً هر سال از این هدف دورتر خواهیم شد.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
الهام‌گرفته از مغز انسان
شبکه‌های عصبی شاید سیستم‌های پیچیده‌ای باشند، اما چند اصول مشخص دارند. این شبکه‌ها با الگوبرداری از مغز انسان ساخته می‌شوند، یعنی سعی می‌کنند شکل‌های بیولوژیکی و فکری مغز را کپی یا شبیه‌سازی کنند. آن‌طور که آی‌بی‌ام می‌گوید، این سیستم‌ها از نظر ساختار و طراحی از لایه‌هایی از گره‌ها (Node) ساخته شده‌اند که شامل یک لایه ورودی، یک یا چند لایه مخفی و یک لایه خروجی است.

در این ساختار هر گره یا نورون مصنوعی به نورون‌های دیگر وصل شده است. از آن‌جایی که این نورون‌ها برای تولید خروجی نیازمند ورودی و اطلاعات هستند، با اتکا بر داده‌های تمرینی آموزش می‌بینند و در طول زمان دقت خود را افزایش می‌دهند. این جزئیات فنی اهمیت دارد، اما تمایل به مدل‌سازی این سیستم‌ها با الگوبرداری از پیچیدگی مغز انسان نیز مهم است.

آگاهی از جاه‌طلبی پشت این سیستم‌ها، در درک تأثیر این جزئیات فنی بر عملکرد سیستم‌ها نقش حیاتی دارد. «تیوو کوهونن»، متخصص شبکه‌های عصبی در مصاحبه‌ای در سال 1993 نتیجه‌گیری کرده بود که رویایش ساخت یک سیستم «خود-سامان‌ده» است که بتواند شبیه سیستم عصبی ما عمل کند. به‌عنوان مثال کوهونن می‌گفت چگونه سیستمی که بر خودش نظارت دارد و خودش را مدیریت می‌کند، می‌تواند به‌عنوان دستگاهی برای نظارت بر سایر ماشین‌ها استفاده شود. او باور داشت که با این سازوکار می‌شود در یک نگاه متوجه شد که وضعیت سیستم‌های پیچیده چگونه است.

هدف کلی داشتن سیستمی بود که بتواند خود را با وضعیت محیطش انطباق بدهد. چنین سیستمی می‌تواند فوری و خودکار عمل کند و شبیه سیستم عصبی انسان باشد. رویای متخصصانی مثل کوهونن این بود که سیستم‌ها بتوانند بدون نیاز به دخالت انسان کار کنند. پیچیدگی‌ها و ناشناختگی‌های مغز، سیستم عصبی و جهان واقعی خیلی زود بر طراحی و توسعه شبکه‌های عصبی هم اثر گذاشت.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
شبیه‌سازی مغز، لایه به لایه
حتماً متوجه شده‌اید که وقتی درباره شبکه‌های عصبی حرف می‌زنیم، همیشه بخشی از این معادله به پیچیدگی مغز انسان مربوط می‌شود، چرا که منبع الهام اصلی این سیستم‌ها بوده است. مغز هنوز یکی از ناشناخته‌های بزرگ جهان است و با این وجود به‌عنوان الگوی عملکرد شبکه‌های عصبی انتخاب شده است. بنابراین طبیعی است که درک این سیستم‌ها هم کار دشواری باشد.

«کارور مید»، مهندس رایانش عصبی در همین باره مبحث جالبی را پیرامون مفهومی موسوم به «کوه یخ شناختی» مطرح می‌کند. او می‌گوید ما فقط از نوک کوه یخ خودآگاهی اطلاع داریم و فقط همان قسمت کوچک را می‌بینیم. در نتیجه، بخش بسیار بزرگ‌تری وجود دارد که در زیر سطح آب ناشناخته باقی مانده است.

«جیمز اندرسون» که در سال 1998 چند وقتی بود روی شبکه‌های عصبی کار می‌کند، متوجه شد که در بحث تحقیقات پیرامون مغز، بزرگ‌ترین چیزی که می‌دانیم صرفاً نوعی آگاهی است، آگاهی از این که ما واقعاً نمی‌دانیم در جهان چه اتفاقاتی در جریان است.

«ریچارد واترز»، خبرنگار فناوری نشریه فایننشال تایمز در سال 2018 در یادداشتی نوشت که چگونه شبکه‌های عصبی براساس نظریه‌ای پیرامون نحوه عملکرد مغز انسان مدل‌سازی شده‌اند و داده‌ها را از طریق لایه‌هایی از نورون‌های مصنوعی عبور می‌دهند تا به یک الگوی قابل‌تشخیص برسند.

واترز می‌گفت این موضوع مشکلی را به‌وجود می‌آورد، چون برخلاف مدارهای منطقی که در برنامه‌های نرم‌افزاری سنتی به کار گرفته می‌شدند، هیچ راهی برای ردیابی این روندهای جدید وجود ندارد و نمی‌توان دقیقاً گفت که کامپیوتر چطور به این پاسخ‌ها رسیده است. واترز نتیجه گرفته بود که این خروجی‌ها را نمی‌توان معکوس کرد. استفاده از این شیوه مدل‌سازی از مغز، یعنی عبوردادن داده‌ها از میان تعداد زیادی لایه، به‌معنای این است که نمی‌توان به‌راحتی مسیر به‌دست‌آمدن پاسخ را ردیابی کرد. چندلایه‌بودن سیستم یکی از دلایل اصلی این مشکل است.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
هدف اصلی هوش مصنوعی انطباق‌پذیری است
دانشمندانی مثل مید و کوهونن می‌خواستند سیستمی بسازند که ذاتاً بتواند خود را با جهان اطرافش انطباق بدهد. چنین سیستمی می‌تواند با توجه به شرایط پاسخ‌های متفاوت ارائه کند. مید به‌روشنی باور داشت که ارزش شبکه‌های عصبی به همین توانمندی در رسیدن به انطباق‌پذیری است. او همچنین می‌گفت که دستیابی به این امکان هدف اصلی آن‌هاست. او معتقد بود که این انطباق‌پذیری به‌خاطر ماهیت جهان ما لازم است، چون همه‌چیز در آن تغییر می‌کند.

به این مسئله باید به‌طور خاص رسیدگی می‌شد، چون مید باور داشت که این موضوع مدت‌ها پیش توسط سیستم عصبی ما برطرف شده بود. این دو متخصص نه‌تنها با تصویری از مغز و ناشناخته‌های آن کار می‌کردند، بلکه آن را با بینشی از «جهان واقعی» و تردیدها، ناشناخته‌ها و تغییرات آن ترکیب می‌کردند. مید اعتقاد داشت که این سیستم‌ها باید بتوانند بدون دریافت دستورالعمل‌های جدید به شرایط گوناگون پاسخ بدهند و خود را با آن‌ها منطبق کنند.

در همان حوالی زمانی در دهه 1990، «استفن گروسبرگ»، متخصص سیستم‌های شناختی که در زمینه ریاضیات، روانشناسی و مهندسی زیست‌پزشکی کار کرده بود، هم باور داشت که انطباق‌پذیری چیزی است که در درازمدت اهمیت بسیاری پیدا می‌کند. گروسبرگ در حین مدل‌سازی شبکه‌های عصبی با خود فکر کرد که مهم‌ترین نکته این است که چطور روش‌های اندازه‌گیری بیولوژیکی و سیستم‌های کنترلی ما طراحی شده‌اند تا به‌شکلی سریع و پایدار در لحظه خود را با جهانی که به سرعت در حال تغییر است، انطباق بدهند.

همان‌طور که بالاتر درباره رویای کوهونن درباره یک سیستم «خود-سامان‌ده» گفتیم، فهم «جهان واقعی» تبدیل به زمینه اصلی برای تبیین پاسخ‌ها و انطباق‌هایی می‌شود که درون این سیستم‌ها کارگذاری خواهند شد. حال این که چگونه این جهان را درک و تصور کنیم، بدون شک بر نحوه طراحی سیستم‌هایی با قابلیت انطباق‌پذیری اثر خواهد گذاشت.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
لایه‌های مخفی هوش مصنوعی
با افزایش تعداد لایه‌ها، یادگیری عمیق به عمق‌های جدیدی رسید. «لری هاردستی»، نویسنده علوم کامپیوتر، می‌گوید شبکه‌های عصبی با اطلاعاتی آموزش داده می‌شود که به لایه پایینی آن‌ها – یعنی لایه ورودی – داده می‌شود و از لایه‌های بعدی می‌گذرد و به روش‌های پیچیده با یکدیگر ترکیب می‌شود تا در نهایت به شکلی بسیار متفاوت به لایه خروجی برسد.

هرچه تعداد لایه‌ها بیشتر باشد، تحولات عظیم‌تر می‌شود و فاصله میان ورودی و خروجی افزایش می‌یابد. توسعه پردازشگرهای گرافیکی (GPU) امکان ایجاد شبکه‌های یک‌لایه در دهه 1960 و شبکه‌های سه‌لایه در دهه 1980 را فراهم کرد. حالا امروزی شبکه‌هایی با 10، 15 و حتی 50 لایه داریم.

شبکه‌های عصبی دارند عمیق‌تر می‌شوند. به‌گفته هاردستی، همین افزودن لایه‌هاست که کلمه «عمیق» را در «یادگیری عمیق» به‌وجود آورده است. این مسئله اهمیت دارد، چون در حال حاضر یادگیری عمیق پشت بهترین سیستم‌ها در تقریباً هر حوزه‌ای از تحقیقات پیرامون هوش مصنوعی است.

اما این معما حتی از این هم پیچیده‌تر می‌شود. با افزایش لایه‌ها در شبکه‌های عصبی، پیچیدگی آن‌ها بیشتر شده است. این مسئله همچنین به چیزی منجر شده که ما از آن با عنوان «لایه‌های مخفی» یاد می‌کنیم. بحث پیرامون بهترین تعداد لایه‌های مخفی در شبکه‌های عصبی همچنان ادامه دارد. «بئاتریس فازی»، تئوریسین رسانه‌ای می‌گوید به‌خاطر نحوه عملکرد شبکه‌های عصبی عمیق، و اتکا بر لایه‌های عصبی مخفی که میان اولین لایه نورون‌ها (لایه ورودی) و آخرین لایه آن‌ها (لایه خروجی) قرار گرفته‌اند، تکنیک‌های یادگیری عمیق اغلب حتی برای توسعه‌دهندگان آن‌ها غیرشفاف و غیرقابل‌فهم هستند.

با افزایش تعداد لایه‌ها (مشتمل بر لایه‌های مخفی) توضیح‌پذیری این سیستم‌ها کمتر می‌شود. «کاترین هیلز»، متفکر برجسته حوزه رسانه در این باره می‌گوید محدودیت‌هایی پیرامون میزان فهمی که می‌توانیم درباره این سیستم‌ها داشته باشیم، وجود دارد و این مسئله تحت‌تأثیر شبکه لایه‌های مخفی و الگوریتم‌های یادگیری عمیق است.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟

در جست‌وجوی توضیح‌ناپذیر
تمام این پیشرفت‌ها بخشی از چیزی است که «تاینا بوچر»، جامعه‌شناس فناوری از آن با عنوان «مشکل ناشناخته» نام می‌برد. «هری کالینز»، محقق هوش مصنوعی می‌گوید هدف شبکه‌های عصبی این است که احتمالاً توسط یک انسان نوشته شوند اما در ادامه به حیات مستقل خود ادامه دهند. بااین‌حال، او می‌گوید شیوه دقیق عملکرد این برنامه‌ها می‌تواند به‌شکل یک معما باقی بماند. این موضوع متأثر از همان رویای دیرینه ساخت سیستم‌های خود-سامان‌ده است.

گفتنی است که ناشناخته‌ها و ناشناختنی‌ها از همان ابتدا به‌عنوان یکی از اصول بنیادین این سیستم‌ها دنبال شده‌اند. پس این احتمال وجود دارد که هر چه اثر هوش مصنوعی در زندگی ما بیشتر شود، فهم ما از چرایی و چگونگی این سیستم‌ها کمتر شود.

بااین‌وجود، همان‌طور که گفتیم خیلی‌ها نمی‌خواهند این مسئله را بپذیرند. بشر می‌خواهد بداند هوش مصنوعی چطور کار می‌کند، چطور تصمیم‌های خود را می‌گیرد و این تصمیم‌ها چه تأثیری بر ما خواهد داشت. اما وقتی حرف از هوش مصنوعی توضیح‌پذیر و شفاف به میان می‌آید، داستان شبکه‌های عصبی به ما یادآوری می‌کند که به احتمال زیاد هر چه جلوتر برویم، فاصله ما با این هدف بیشتر خواهد شد.

*منبع: BBC

برچسب ها: هوش مصنوعی ، انسان ها
ارسال به دوستان