نیویورکر: روند یادگیری هوش مصنوعی در مرحله بعد به کدام سو می‌رود؟

روند یادگیری امروز هوش مصنوعی برپایه روشی است که در گذشته از سوی شرکت‌هایی مثل گوگل شاهدش بودیم. این موتور جستجو برای خدماتی مثل OneBox که در پنجره‌ای متفاوت یک پاسخ خاص به سوال کاربران ارائه می‌دهد، از منابع موجود در اینترنت استفاده کرده است.

 

به نقل از ماهنامه پیوست، جوامع مختلفی در اینترنت، گوگل را به سرقت اطلاعات و داده‌های خود متهم کرده‌اند اما مساله اصلی استفاده از داده‌های ساخته انسان است. جوامع انسانی در سراسر اینترنت اطلاعات زیادی را تولید می‌کنند و یادگیری ماشینی با بهره‌برداری از همین داده‌ها، پاسخ‌هایی را در اختیار کاربر می‌گذارد. اما مرحله بعدی،‌ تولید دانش و اطلاعات توسط هوش مصنوعی و یادگیری بر مبنای همین اطلاعات جدید است.

در این مطلب از پیوست چکیده‌ای از مقاله نیویورکر پیرامون آینده هوش مصنوعی و تکامل روند یادگیری این ابزارها را مطالعه می‌کنید.

امروزه مدل‌های بزرگ زبانی از جمله ChatGPT از اوپن‌ای‌آی و گوگل بارد، در تلاشند تا اطلاعات وب را به کامل‌ترین شکل ممکن بلعیده و بر آن چیره شوند. سوال اینجاست که مدل‌های بزرگ زبانی (LLMها) تا کی می‌توانند به نوشته‌های انسان-نمادی از هوش ما-وابسته باشند. این ابزارها به ویژه به منابع غنی از اطلاعات وابسته‌اند.

مهمترین منبع اطلاعاتی اوپن‌ای‌آی برای ساخت ChatGPT، ویکیپدیا و پس از آن شبکه اجتماعی ردیت بود؛ بیست و دو درصد از داده‌های آموزشی GPT-3 مربوط به لینک‌های منتهی به ردیت و آپ‌ووت شده توسط کاربران ردیت است. ChatGPT به حدی در حوزه کدنویسی مهارت دارد که حتی ماهرترین توسعه‌دهندگان هم دیگر از پلتفرم Stack Overflow (یک پلتفرم برای تبادل نظر و ارائه راه‌حل برنامه‌نویسان به یکدیگر) استفاده نمی‌کنند اما جالب اینکه ChatGPT بخشی از موفقیت خود را مدیون اطلاعات همین پلتفرم است. گروهی از محققان برآورد کرده‌اند که تعداد پست‌های جدید Stack Overflow از زمان عرضه ChatGPT تا شانزده درصد کمتر شده است.

من کاربر فعالی در Stack Overflow نیستم، اما کدنویسم و بیشتر از یک دهه است که از این وبسایت استفاده می‌کنم. من پروژه‌هایی را در GitHub (وبسایتی برای کد منبع‌باز) ارائه کردم، در ادیت پست کرده و صفحات ویکیپدیا را اصلاح کرده‌ام. در عین حال سال‌ها است که پست‌های و کدهایی را در وبسایت خودم منتشر می‌کنم.

مثل همه، نمی‌دانستم که در واقع دارم اطلاعات مورد نیاز GPT را تولید می‌کنم؛ در صورت اطلاع شاید پولی در ازای این کار می‌خواستم یا حتی کمکی نمی‌کردم. مدیرعامل ردیت در ماه آوریل اعلام کرد که هر شرکتی برای استفاده از داده‌های این پلتفرم باید هزینه آن را پرداخت کند. (از آنجایی که این مساله دیگر اپلیکیشن‌های غیرهوش مصنوعی را نیز تهدید می‌کرد، کاربران ردیت اعتصاب کرده و تاکید کردند که درآمد سایت ناشی از فعالیت این جامعه است.) Stack Overflow نیز بیانیه مشابهی را منتشر کرد.

شاید وبسایت‌های اجتماعی بتوانند محتوای خود را محدود کنند اما شاید این موضوع دیگر اهمیتی نداشته باشد. داده با کیفیت یک منبع تجدید پذیر نیست، به ویژه اگر آن را شبیه به منابع نفتی در نظر بگیرید که اختیارش در دست شما است.

وبسایت‌هایی که چت‌بات‌ها را تغذیه می‌کنند عملکردی شبیه به اقتصاد دانش‌بنیان دارند و با ارز‌های مختلفی-مثل نشان، پاداش یا امتیاز-جریان اطلاعات را به سمت جایی که بیشتری تقاضا وجود دارد هدایت می‌کنند و این چت‌بات‌ها در حال حاضر سمت تقاضای بازار را جذب خود کرده‌اند؛ موضوعی که به ویژه به ضرر تولیدکنندگان اطلاعات پایه آنها یا همان انسان‌ها است.

این مساله برای ما نیز مشکل‌ساز است: همه ما از یک وب ساخته انسان نفع می‌بریم. اما این مساله برای هوش مصنوعی نیز مشکل‌ساز است. ممکن است که هوش مصنوعی‌ها تنها یک بار بتوانند وب را ببلعند اما اگر همواره باهوش‌تر شوند، به منبعی از دانش نیاز دارند. این منبع کجاست؟

شرکت‌های هوش مصنوعی امروز تمرکز خود را روی یک منبع احتمالی گذاشته‌اند: مکالمه. هرکسی که از بارد یا ChatGPT استفاده می‌کند در واقع وارد جزئی از یک روند آموزشی است. در واقع یکی از دلایل رایگان بودن این ابزار‌ها، ارزش داده‌هایی است که کاربران ارائه می‌کنند: هر چیزی که برای چت‌بات تایپ می‌کنید، منبع تغذیه‌ای برای مدل زبانی آن است.

بعلاوه، علاوه بر تایپ اطلاعاتی هم ارائه می‌کنید-مثل ایمیل، مستندات، کد، دستورالعمل، قرارداد و غیره. ما معمولا از هوش مصنوعی می‌خواهیم تا یک محتوا را خلاصه کند و یا درمورد آن سوال می‌پرسیم، روندی که شبیه به یک سمینار روخوانی  است. در حال حاضر آنچه می‌توانید در اختیار چت‌بات بگذارید محدود است اما مقدار اطلاعاتی که می‌توانیم ارائه کنیم هم همواره در حال رشد است.

یکی از دلایل رایگان بودن این ابزار‌ها، ارزش داده‌هایی است که کاربران ارائه می‌کنند

طولی نمی‌کشد که بسیاری از ما خصوصی‌ترین اطلاعات خود را در اختیار این مدل‌ها بگذاریم. یک چت‌بات هنوز اجازه دسترسی به ایمیل- یا متن،‌تقویم، نوت‌ها و فایل‌ها را نمی‌خواهد- را درخواست نمی‌کند اما شاید در ازای دسترسی به یک دستیار توانمند شخصی، حریم خصوصی خود را زیر پا بگذاریم. یک روبات دستیار شخصی شاید از من بخواهد تا افزونه‌ای را روی مرورگرم نصب کنم و هوش مصنوعی بتواند از الگوهای جستجو و مرور من یاد بگیرد. همچنین ChatGPT و همتایانش به زودی «چندوجهی» می‌شوند و میتوانند متن، تصویر، ویدیو و متن را ترکیب کنند (ChatGPT در یکی از بروزرسانی‌های اخیر این قابلیت‌ را عرضه کرده است.) زبان بیشتر از اینکه کتبی باشد، شفاهی است و برای همین روبات‌ها امکاناتی مثل رونویسی از جلسات و تماس‌های تلفنی یا حتی روابط روزمره ما را ارائه می‌کنند.

پیش از اینکه مدل‌هایی مثل GPT-3.5 و GPT-4 با محصولی به نام ChatGPT در اختیار کاربران قرار بگیرند، به واسطه ساز و کاری به نام «یادگیری تقویتی براساس بازخورد انسانی» یا اساس R.L.H.F‌ آموزش دیده‌اند. در این فرایند اوپن‌ای‌آی از گروهی از انسان‌ها خواسته تا با مدل خام مکالمه داشته و کیفیت پاسخ‌های آن را ارزیابی کنند؛ مدل براساس این ارزیابی یاد می‌گیرد و بر همین اساس پاسخ‌های خود را به مرور زمان بهینه‌سازی می‌کند.

به همین دلیل ChatGPT به خوبی منظور حرف شما را درک کرده و پاسخ خوبی ارائه می‌کند. این فرایند بسیار پر هزینه است اما R.H.L.F. به صورت رایگان و در مقیاس گسترده‌تر هم به واسطه ارتباط با کاربران معمولی جهان انجام می‌شود. حتی اگر روی لایک، دیس‌لایک یا دکمه‌های «مفید بود» یا نبود هم کلیک نکنید، GPT-4 به خوبی می‌تواند یک مکالمه را تفسیر کرده و خودش برآوردی از عملکرد خود ارائه کند.

حتی می‌توان از مکالمات یک مدل برای تقویت دیگری استفاده کرد: گفته شده که رقبای ChatGPT، از جمله گوگل بارد، با استفاده از رونوشت مکالمات ChatGPT که در اینترنت قابل دسترسی است، آموزش دیده‌اند. (البته گوگل این موضوع را رد کرده است.)

هوش مصنوعی به خوبی می‌تواند یک مکالمه را تفسیر کرده و خودش برآوردی از عملکرد خود ارائه کند

استفاده از چت‌بات‌ برای ارزیابی و آموزش یک چت‌بات دیگر به روندی اشاره دارد که شاید در نهایت انسان را به طور کامل از این حلقه آموزشی حذف کند. شاید مهمترین محدودیت مدل‌های زبانی امروز، وابستگی آنها به دانش انسانی است. وقتی روبات‌ها خودشان امکان خلق دانش داشته باشند، ‌تغییر شگرفی رخ می‌دهد. یک روند احتمالی نیز داده مصنوعی را شامل می‌شود.

سم آلتمن، مدیرعامل اوپن‌ای‌آی، می‌گوید داده‌های مصنوعی شاید جایگزین داده‌های واقعی شوند. قضیه از این قرار است که مدلی مثل GPT، مستندات مکالمات و ارزیابی‌هایی از مکالمات خود ارائه کرده و سپس مدل دیگری-شاید حتی یک کپی از مدل اولی-آنها را می‌بلعد.

امید می‌رود که هوش مصنوعی بتوانند همانگونه که بازی را یاد می‌گیرد، خودش را در موضوعات دیگر نیز آموزش دهد. برای یادگیری بازی‌هایی مثل Go و شترنج، هوش مصنوعی عمدتا در مقابل رقیبی از جنس خود و با مهارتی یکسان بازی کرده و سپس از آموخته‌های خود یاد می‌گیرد.

با وجود نگاه مثبت آلتمن به داده‌های مصنوعی، دلایلی برای نقد آن وجود دارد. یکی از واضح‌ترین نقد‌ها اینکه شما با هر سطح هوشی، نمی‌توانید تنها با بررسی دانسته‌های پیشین خود به حقایق تازه‌ای درمورد جهان برسید. محققان در یک مطالعه جدید هوش مصنوعی را تصاویر مصنوعی که توسط خودش ساخته شده بود آموزش دادند؛ سپس از این مدل برای تولید داده‌های آموزشی بیشتر استفاده شد.

در هر نسل، کیفیت مدل کمتر شد. تنها زمانی شاهد رشد بودیم که تصاویر واقعی و تازه در اختیار آن قرار می‌گرفت. برخی از وظایف سازگاری بهتری با داده‌های مصنوعی دارند: شترنج و بازی گو نیازمند هوش هستند اما در جهانی بسته با قوانین ثابت انجام می شوند. محققان در حال کار روی «طراحی سیستم آموزش» هوش مصنوعی هستند تا ببیند چطور سیستم‌های خود را با وظایفی که نیازمند حداکثر توانایی آنها است، درست مثل یک مربی خوب به چالش برسند. این روند در جهان شترنج و گو با بازی مقابل حریفی از جنس خود هوش مصنوعی رخ می‌دهد.

اما روشن نیست یک هوش مصنوعی چطور می‌تواند «بازی با خود» را به راهکاری برای خلق ایده های جدید و درک بهتر زبان تبدیل کند. انسان‌ها نمی‌توانند تنها با مطالعه نوشته‌های خودشان به نویسنده بهتری تبدیل شوند یا تنها روی جمله‌های مطلوب کار کنند. روند آموزش ما علاوه بر ثمره ذهنی، تجربه در جهان واقعی را شامل می‌شود. این سیستم آموزش را معلمان و ما به چنین شکلی طراحی کرده‌ایم. تنها مصرف داده‌های عظیم برای دانشمند شدن ما کافی نیست.

باید بدانیم که چه چیز را می‌خواهیم بدانیم. تیلور بک، متخصص اعصابی که معلم شده، زمانی گفت که هوش مصنوعی تنها حالتی است که شما یادگیری کاملا بدون انگیزه را شاهد هستید: ماشین تنها حجم زیادی از متون ناشناخته را می‌بلعد و اهمیتی به ماهیت آن نمی‌دهد. اما هوش طبیعی، همواره از نوعی انگیزه یا هدف نشات می‌گیرد. مدل‌های بزرگ زبانی از جمله ChatGPT هیچ انگیزه‌ای ندارند؛ آنها اطلاعات را جذب و ترکیب می‌کنند.

یکی از پیشرفت‌های مهم هوش مصنوعی مربوط به زمانی است که شاهد کنجکاوی یا حتی بی‌حوصلگی هوش مصنوعی باشیم.کنجکاوی و بی‌حوصلگی از جمله ویژگی‌های یک ذهن طبیعی به نظر می آیند اما می‌توان آنها را به هوش مصنوعی نیز القا کرد. چت بات‌های امروزی تمایلی به «توهم» یا خلق اطلاعات دارند. ریشه این توهمات، ناتوانی آنها در بازبینی خود است: هوش مصنوعی متوجه نیست که می‌داند یا نمی‌داند. در حالی که محققان می‌خواهند اعتبار مدل‌ها را افزایش داده و به منابع ارجاع دهند، اما این کار اعتبار چت‌بات‌ها را بیشتر نمی‌کند و راه‌حل آن نوعی دانش فردی است.

یک هوش مصنوعی می‌تواند با مشاهده متن مکالمات خود، توهم را تشخیص دهد و درنتیجه بهتر است بگذاریم همین مشاهدات، راهنمایی برای یادگیری این ابزار شود. مدل هوش مصنوعی در این حالت خود را به سمت منابع مربوط به موضوعاتی سوق می‌دهد که کمترین اطلاع را درمورد آنها دارد- چیزی شبیه به کنجکاوی در انسان.

هوش مصنوعی متوجه نیست که می‌داند یا نمی‌داند

در این حالت، چت‌بات در صورت عدم دسترسی به اطلاعات، در پی آن می‌رود. می‌توان حالتی را تصور کرد که یک چت‌بات پس از مدتی عدم فعالیت، خودش سوالاتی از من بپرسد. شاید براساس همین سوالات و دنبال آنها، دانش من به آن منتقل شود.

اگر طراحان هوش مصنوعی یک ماشین کنجکاوی را ممکن کنند، چیزی فراتر از چت‌بات را شاهد هستیم. این ابزار می‌تواند به جای استنباط و سوال در فضای محدود چت، ایمیل داده یا با تکنولوژی صدای مصنوعی، با افراد تماس بگیرد. اگر هوش کافی داشته باشد، شاید یک فرضیه فیزیک طراحی کرده و از فیزیک دانان بخواهد آن را آزمایش کنند. هوش مصنوعی در حال حاضر هم از رابط‌های برنامه‌نویسی (API) برای ارتباط با سیستم‌های کامپیوتری و کنترل ماشین‌ها استفاده می‌کنند؛ یک روبات کنجکاو می‌تواند آزمایشگاهی روباتیک را در اختیار گرفته و از آن استفاده کند.

تنها طی چند سال ممکن است ما از جهانی که هوش مصنوعی در آن تنها دانش انسانی را گرفته و با بسته‌بندی جدید ارائه می‌کند، به جهانی با امکان ترکیب و تحکیم دانسته‌های انسان توسط هوش مصنوعی برسیم. پس از اینکه هوش مصنوعی استخراج دانش از دانسته‌های ما را یاد بگیرد، خودش امکان خلق دانش خواهد داشت.

اما نیمه تاریک و ترسناک ماجرا، تمرکز بیش از حد قدرت در نتیجه چنین روندی است. بارد و ChatGPT با بلعیدن اطلاعات جهان آنلاین و پیشرفت تصاعدی ممکن است به مرجعی کامل از اطلاعات جهان تبدیل شده و همواره گنجینه خود را بزرگتر کنند و همین ابزار می‌تواند در صورت نیاز دانش موجود را برای خود نگه داشته و مخفی کند.

برخلاف اجتماعاتی که در گذشته منبع ارزشمندی از اطلاعات بودند، ابزارهای هوش مصنوعی با وجود دسترسی به اطلاعات بیشتر، ماهیتی شبیه به یک جعبه سیاه دارند و هیچکس امکان دسترسی کامل به دانسته‌های آنها را ندارد.

با این حال، همین ابزار می‌تواند با توجه به توانایی فوق‌العاده‌ای که در خواندن اطلاعات دارد، بهترین آموزش‌ها را طراحی کرده و سریع‌تر از معلم یا استادی، اطلاعات به‌روز را خوانده و به دانش آموزان منتقل کند. امروزه با انتشار آنلاین مقالات، هیچ پروفسوری نمی‌تواند تمامی مقالات جدید را که در تعداد بیشمار منتشر می‌شوند مطالعه کند.

همچنین برای جلوگیری از تمرکز قدرت و اجحاف در حق منابع اصلی دانش یا همان انسان‌ها، هوش مصنوعی بهتر است روند ارجاع‌دهی را در پیش بگیرد. حضور انسان در چرخه کار اولین نسخه‌های این ابزار الزامی است. مدیرعامل Stack Overflow و نماینده ویکی‌مدیا، بنیاد اداره کننده ویکیپدیا، می‌گویند که ارجاع چت‌بات‌ها به منابع، راهکار خوبی برای وضعیت فعلی است.

هوش مصنوعی در آینده نباید انسان را تنها پله‌ای برای ترقی خود بداند، در عوض باید در کنار انسان به رشد و تکامل ما که منبع اصلی اطلاعات هستیم کمک کرده و ما را تشویق کند. باید در انتظار مدل‌هایی بود که همانند یک دانش آموز، درمورد آنچه نمی‌داند از انسان کمک بخواهد و ما بتوانیم خواسته آن را قبول یا رد کنیم.

منبع: ماهنامه پیوست

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


The reCAPTCHA verification period has expired. Please reload the page.

دکمه بازگشت به بالا