در این گفتگو که درباره نامه ای که در اون عده ای درخواست توقف پیشرفت هوش مصنوعی رو داشتند، Andrew Ng اینطور شروع کرد که ما در مورد این پیشنهاد توقف شش ماهه فکر کردیم و احساس کردیم که این موضوع به اندازه کافی مهمه که من و یان اینجا باهاتون در موردش صحبت کنیم و فکر میکنم اگه دولت اون رو اجرا کنه واقعاً آسیب قابل توجهی داره.
اون اول توضیح داد که حوزه هوش مصنوعی در دهههای اخیر، به ویژه در چند سال گذشته، پیشرفتهای چشمگیری داشته.
تکنیکهای یادگیری عمیق، ایجاد سیستمهای هوش مصنوعی مولد مثل ChatGPT، LLaMa، Midjourney، Stable Diffusion و Dall-E رو امکانپذیر کرده که میتونن متون، تصاویر و صداهای واقعی تولید کنن. این سیستمها امیدها رو برای کاربردها و امکانات جدید و همچنین نگرانی در مورد آسیبها و خطرات بالقوه اونها رو افزایش دادن.
یان اینطور گفت که احتمالاً انگیزههای مختلفی از طرف امضاکنندگان مختلف این نامه وجود داره. بعضیهاشون، نگران AGI و از بین رفتن بشریت در کوتاه مدت هستن که فکر می کنم افراد کمی واقعاً به این نوع سناریو اعتقاد دارن. بعد از اون افرادی هستن که منطقیتر هستن، که فکر میکنن آسیبها و خطرات بالقوه واقعی وجود داره که باید با اونها برخورد بشه و من با اونها موافقم.
مشکلات زیادی در مورد کنترلپذیر کردن سیستمهای هوش مصنوعی و غیرسمی کردن اونها وجود داره اما اینطور نیست که سیستمهای هوشمصنوعی آینده بر اساس طرحی مشابه با LLMهای رگرسیون خودکار فعلی مثل ChatGPT و GPT-4 یا سایر سیستمهای قبل از اونها مثل Galactica یا Bard یا هر چیز دیگهای طراحی بشن. من فکر میکنم ایدههای جدیدی میاد که این سیستمها رو بسیار قابل کنترلتر میکنه.
توی این گفتگو، Ng و LeCun توافق کردن که برخی مقررات ضروریه، اما نه به قیمت توقف تحقیق و نوآوری.
اونها گفتن که توقف توسعه یا استقرار این مدلها نتیجهی عکس داره.
اونها همچنین خواستار همکاری و شفافیت بیشتر بین محققان، دولتها و شرکتها برای اطمینان از استفاده اخلاقی و مسئولانه از این مدلها شدن.
یان این رو اضافه کرد که چرا پیشرفت دانش و علم رو کند کنیم؟ بعد میرسیم به مسئله محصولات… من همه جوره طرفدار کنترل محصولاتی هستم که به دست مردم می رسه اما معنی کنترل تحقیق و توسعه رو درک نمیکنم. فکر نمیکنم که هدف دیگهای به جز کاهش دانشی که میتونیم برای بهتر کردن و ایمنتر کردن فناوری ازش استفاده کنیم، داشته باشه. درسته که هوش مصنوعی امروز خطراتی داره، مثلاً bias، انصاف، تمرکز قدرت اما فکر میکنم که ارزش فوق العادهای هم ایجاد میکنه. من فکر میکنم تعداد ایدههای مولد هوش مصنوعی که با یادگیری عمیق در طول ۱۰ سال گذشته، و حتی در سال گذشته ممکن شدن و نحوه استفاده از اونها برای آموزش یا مراقبتهای بهداشتی، فوق العاده هیجان انگیزه. من فکر میکنم همونقدر که GPT-4 امروز شگفتانگیزه، ساخت مدلهای حتی بهتر از GPT-4 به همه این برنامهها و به افراد زیادی کمک میکنه. پس به نظر میرسه توقف پیشرفت اون، آسیبهای زیادی ایجاد میکنه و باعث کندی ایجاد چیزهای بسیار ارزشمندی میشه که به افراد زیادی کمک میکنه.