گفتگوی Andrew Ng و Yann LeCun

گفتگوی Andrew Ng و Yann LeCun

در این گفتگو که درباره نامه ای که در اون عده ای درخواست توقف پیشرفت هوش‌ مصنوعی رو داشتند، Andrew Ng اینطور شروع کرد که ما در مورد این پیشنهاد توقف شش ماهه فکر کردیم و احساس کردیم که این موضوع به اندازه کافی مهمه که من و یان اینجا باهاتون در موردش صحبت کنیم و فکر می‌کنم اگه دولت اون رو اجرا کنه واقعاً آسیب قابل توجهی داره.

اون اول توضیح داد که حوزه هوش مصنوعی در دهه‌های اخیر، به ویژه در چند سال گذشته، پیشرفت‌های چشمگیری داشته.

تکنیک‌های یادگیری عمیق، ایجاد سیستم‌های هوش مصنوعی مولد مثل ChatGPT، LLaMa، Midjourney، Stable Diffusion و Dall-E رو امکان‌پذیر کرده که می‌تونن متون، تصاویر و صداهای واقعی تولید کنن. این سیستم‌ها امیدها رو برای کاربردها و امکانات جدید و همچنین نگرانی در مورد آسیب‌ها و خطرات بالقوه اون‌ها رو افزایش دادن.

یان اینطور گفت که احتمالاً انگیزه‌های مختلفی از طرف امضاکنندگان مختلف این نامه وجود داره. بعضی‌هاشون، نگران AGI و از بین رفتن بشریت در کوتاه مدت هستن که فکر می کنم افراد کمی واقعاً به این نوع سناریو اعتقاد دارن. بعد از اون افرادی هستن که منطقی‌تر هستن، که فکر می‌کنن آسیب‌ها و خطرات بالقوه واقعی وجود داره که باید با اون‌ها برخورد بشه و من با اون‌ها موافقم.

مشکلات زیادی در مورد کنترل‌پذیر کردن سیستم‌های هوش مصنوعی و غیرسمی کردن اون‌ها وجود داره اما اینطور نیست که سیستم‌های هوش‌مصنوعی آینده بر اساس طرحی مشابه با LLM‌های رگرسیون خودکار فعلی مثل ChatGPT و GPT-4 یا سایر سیستم‌های قبل از اون‌ها مثل Galactica یا Bard یا هر چیز دیگه‌ای طراحی بشن. من فکر می‌کنم ایده‌های جدیدی میاد که این سیستم‌ها رو بسیار قابل کنترل‌تر می‌کنه.

توی این گفتگو، Ng و LeCun توافق کردن که برخی مقررات ضروریه، اما نه به قیمت توقف تحقیق و نوآوری.

اون‌ها گفتن که توقف توسعه یا استقرار این مدل‌ها نتیجه‌ی عکس داره.

اون‌ها همچنین خواستار همکاری و شفافیت بیشتر بین محققان، دولت‌ها و شرکت‌ها برای اطمینان از استفاده اخلاقی و مسئولانه از این مدل‌ها شدن.

یان این رو اضافه کرد که چرا پیشرفت دانش و علم رو کند کنیم؟ بعد می‌رسیم به مسئله محصولات… من همه جوره طرفدار کنترل محصولاتی هستم که به دست مردم می رسه اما معنی کنترل تحقیق و توسعه رو درک نمی‌کنم. فکر نمی‌کنم که هدف دیگه‌ای به جز کاهش دانشی که می‌تونیم برای بهتر کردن و ایمن‌تر کردن فناوری ازش استفاده کنیم، داشته باشه. درسته که هوش مصنوعی امروز خطراتی داره، مثلاً bias، انصاف، تمرکز قدرت اما فکر می‌کنم که ارزش فوق العاده‌ای هم ایجاد می‌کنه. من فکر می‌کنم تعداد ایده‌های مولد هوش مصنوعی که با یادگیری عمیق در طول ۱۰ سال گذشته، و حتی در سال گذشته ممکن شدن و نحوه استفاده از اون‌ها برای آموزش یا مراقبت‌های بهداشتی، فوق العاده هیجان انگیزه. من فکر می‌کنم همونقدر که GPT-4 امروز شگفت‌انگیزه، ساخت مدل‌های حتی بهتر از GPT-4 به همه این برنامه‌ها و به افراد زیادی کمک می‌کنه. پس به نظر می‌رسه توقف پیشرفت اون، آسیب‌های زیادی ایجاد می‌کنه و باعث کندی ایجاد چیزهای بسیار ارزشمندی می‌شه که به افراد زیادی کمک می‌کنه.

دنبال کردن در تلگرام دنبال کردن در اینستاگرام دنبال کردن در آپارات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

×