رویکرد چین در مورد هوش مصنوعی چگونه خواهد بود؟
با توجه به محدودیتهای چین در مورد اینترنت و فضای وب، هوش مصنوعی میتواند قابلیتهای این کشور را برای شکل دادن به نوآوری متناسب با اهدافش آزمایش کند.
به نقل از اکونومیست، غولهای فناوری چین در حدود یک ماه گذشته خودنمایی کردهاند. شرکتهایی مانند «علی بابا»(Alibaba)، «بایدو»(Baidu)، «هواوی»(Huawei) و «سنستایم»(SenseTime) همگی مدلهای هوش مصنوعی خود را به نمایش گذاشتهاند که میتوانند محصولات و برنامههایی مانند تولیدکننده تصویر، دستیارهای صوتی و موتورهای جستجو را پشتیبانی کنند. برخی از شرکتها، چتباتهای مجهز به هوش مصنوعی مشابه «ChatGPT» را معرفی کردهاند. محصولات جدید دارای نامهایی مانند «ارنی بات»(Ernie Bot) شرکت بایدو، «سنسچت»(SenseChat) شرکت سنستایم و «تونگی کیانون»(Tongyi Qianwen) شرکت علی بابا هستند.
هوش مصنوعی، یک چالش برای مقامات چین است. مرتبسازی «تولیدکننده» که ورودیهای متن، تصویر، صدا یا ویدیو را پردازش میکند تا خروجیهای جدیدی از آن تولید شود، نویدبخش است. شرکتهای فناوری چینی که در سالهای اخیر به دلیل سرکوبهای نظارتی و فروش ضعیف ضربه خوردهاند، امیدوارند که هوش مصنوعی بتواند جریانهای درآمدی گستردهای را مشابه فرصتهایی ایجاد کند که با ظهور اینترنت یا تلفنهای هوشمند به ارمغان میآورد.
از سوی دیگر، حزب حاکم این کشور میبیند که هوش مصنوعی راههای جدیدی را برای انتشار اطلاعات خارج از کنترل خود باز میکند. رهبران حزب ممکن است مقایسههای متفاوتی با اینترنت انجام داده باشند که به نظر میرسید با افزایش دسترسی به اخبار و راههای ارتباطی بدون فیلتر، به دموکراتیزه کردن چین کمک کند. «بیل کلینتون»(Bill Clinton) در سال ۲۰۰۰، تلاشهای حزب برای کنترل وب را «میخکوب کردن ژله به دیوار» توصیف کرد. با وجود این، حزب با استقرار ارتشی از سانسورها و موانع دیجیتال تا حد زیادی در ایجاد اینترنتی که اهداف مورد نظر را برآورده میکند، موفق شده و صنعت را در سایه آن پرورش داده است. پرسشی که اکنون مطرح میشود، این است که آیا امکان دارد موضوع مشابهی در مورد هوش مصنوعی اتفاق بیفتد؟
قوانین پیشنهادشده توسط تنظیمکنندگان اینترنت چین در ۱۱ آوریل، نگرانیهای دولت را روشن میکند. به گفته «اداره فضای سایبری چین»(CAC)، شرکتها باید پیش از به کار بردن محصولات مولد هوش مصنوعی برای ارائه خدمات به مردم، ارزیابی امنیتی را به دولت ارائه دهند. شرکتها مسئول محتوایی هستند که چنین محصولاتی تولید میکنند. طبق قوانین، محتوا نباید قدرت دولت را زیر سوال ببرد، به تجزیهطلبی دامن بزند، به وحدت ملی آسیب برساند یا نظم اقتصادی و اجتماعی را به هم بریزد و باید مطابق با ارزشهای سوسیالیستی کشور باشد. این محدودیتها ممکن است محرمانه به نظر برسند اما قوانین مشابهی که در مورد اینترنت اعمال میشود، به حزب امکان میدهد تا سخنان خود را در مورد همه چیز دیکته کند.
پیشنهادات چین در حالی مطرح میشود که دولتهای سراسر جهان با نحوه تنظیم کردن اینترنت در آینده مبارزه میکنند. برخی با تکیه بر قوانین موجود برای نظارت بر فناوری، طرفدار یک کنترل محدود هستند. برخی دیگر بر این باورند که گروه نظارتی جدیدی مورد نیاز است. اتحادیه اروپا قانونی پیشنهاد کرده است که کاربردهای گوناگون هوش مصنوعی را طبقهبندی میکند و الزامات سختگیرانه فزایندهای را با توجه به درجه خطر اعمال میکند. روش چین متفاوت به نظر میرسد. برای مثال، حزب سال گذشته نگران بود که تصاویر و ویدیوهای «دیپفیک»(Deepfake) ممکن است محیط اطلاعاتی کنترلشده را مختل کنند و به همین دلیل، قوانین جدیدی را در مورد این فناوری صادر کرد. در این راستا، یکی از رسانههای تولیدشده با هوش مصنوعی و بدون برچسب مبدأ ممنوع شد.
رویکرد چین، شباهتهایی به اینترنت دارد. کنترلهای وب آن که اغلب به عنوان «دیوار آتش بزرگ» شناخته میشوند، ممکن است یکپارچه به نظر برسند اما حفظ محتوای خارجی مضر، تنها بخشی از تلاش لایهای است که به مرور زمان توسعه یافته است و بسیاری از آژانسها و شرکتها را درگیر میکند. «مت شیهان»(Matt Sheehan)، از «موقوفه کارنگی برای صلح بینالمللی»(CEIP) میگوید که مرحله اول به طور کلی در مورد ایجاد بستری برای اینترنت بود که حزب بتواند آن را کنترل کند. امروز دولت چین دوباره در حال تقویت عضلات بوروکراتیک و افزایش راههای نظارتی خود است که این بار با در نظر گرفتن هوش مصنوعی انجام میشود. شیهان باور دارد که اجباری کردن بررسیهای امنیتی و الزام شرکتها به ثبت الگوریتمهای خود، نمونههایی از این امر است.
کنترل چین بر اینترنت، نوآوری را خفه نکرده است. برای اثبات این گفته، کافی است فقط به شرکتهایی مانند «بایتدانس»(ByteDance) که مادر چینی برنامه ویدیوی محبوب «تیکتاک»(TikTok) است، نگاه کنید. اما وقتی صحبت از هوش مصنوعی به میان میآید، دشوار است که ببینیم چگونه یک شرکت چینی میتواند محصولی به گستردگی Chatgpt ایجاد کند و در عین حال در چارچوب قوانین دولت بماند.
اداره فضای سایبری چین میگوید که اطلاعات تولیدشده توسط چنین برنامههایی باید درست و دقیق باشند و دادههای مورد استفاده برای آموزش آنها نیز عینی باشند. حزب چین، تعاریف خاص خود را از این واژهها دارد اما حتی پیشرفتهترین برنامههای مبتنی بر هوش مصنوعی که براساس مدلهای زبانی بزرگ ساخته شدهاند، گهگاه چیزهایی را ارائه میدهند که واقعا نادرست هستند. برای محصولی مانند Chatgpt که از صدها گیگابایت داده به دست آمده از سراسر اینترنت تغذیه میشود، مرتب کردن ورودیها براساس عینیت آنها به سختی امکانپذیر است.
بنابراین، کارشناسان تردید دارند که این اقدامات به صورت محکم و استوار اجرا شوند. در پیشنویس مقررات، زمینه برای تعدیل کردن وجود دارد. وقتی محتوای تولید شده خارج از قوانین باشد، دولت خواستار فیلتر کردن و سایر اقدامات مشابه و آموزش بهینه ظرف سه ماه است. این اقدامات شبیه بهینهسازی مدلهایی به نظر میرسند که شرکتهای غربی انجام دادهاند تا چتباتهای خود را از انتشار محتوای خشونتبار بازدارند. مقررات محلی هوش مصنوعی که در شهر شانگهای معرفی شدهاند، ضعیفتر هستند و تصریح میشود که نقض قوانین جزئی ممکن است به هیچ وجه مجازاتی به همراه نداشته باشد.
ماهیت دلخواه قوانین پیشنهادی اداره فضای سایبری چین بدین معناست که میتواند شدت آنها را به دلخواه تغییر دهد. سایر کشورها ممکن است چنین انعطافپذیری را تأیید کنند اما همان طور که شرکتهای بزرگ اینترنتی تأیید میکنند، دولت چین عادت دارد قوانین را براساس خواستههای «شی جین پینگ»(Xi Jinping)، رئیسجمهور این کشور بازنویسی و به طور انتخابی اجرا کند. در سالهای اخیر، شرکتهای فعال در زمینههایی مانند تجارت الکترونیک، رسانههای اجتماعی و بازیهای ویدیویی مجبور شدهاند در مدلهای کسبوکار خود تجدیدنظر کنند. برای مثال، رسانههای دولتی چین در سال ۲۰۲۱، بازیهای ویدیویی را «تریاک معنوی» نامیدند. قانونگذاران به شرکتهای بازیسازی گفتند که تمرکز خود را روی نتیجه نهایی نگذارند و تمایل بچهها به بازی را کاهش دهند.
یکی از راههایی که ممکن است شرکتهای چینی به وسیله آنها هوش مصنوعی را متوقف کنند، محدود کردن اطلاعات شخصی است که برای آموزش مدلهای هوش مصنوعی در دسترس قرار دارد. حزب چین، پیچیدهترین نظارت جمعی جهان را اداره میکند. تا همین اواخر، شرکتهای فناوری چین نیز قادر به جمعآوری اطلاعات شخصی بودند اما به نظر میرسد که این دوران آزادسازی برای بخش خصوصی رو به پایان است. اکنون شرکتهایی که میخواهند انواع خاصی از دادههای شخصی را به کار بگیرند، از نظر تئوری باید موافقت افراد را دریافت کنند. اداره فضای سایبری چین سال گذشته، شرکت «دیدی گلوبال»(Didi Global) را به دلیل جمعآوری غیرقانونی و سوءاستفاده از دادههای کاربران، معادل ۱.۲ میلیارد دلار جریمه کرد. براساس پیشنویس قوانین هوش مصنوعی، شرکتها مسئول حفاظت از اطلاعات شخصی کاربران خواهند بود.
مقررات پیشنهادی اداره فضای سایبری چین، شش سال پس از آن آمده است که طرح جامع چین برای هوش مصنوعی خواستار پیشرفتهای بزرگ تا سال ۲۰۲۵ و تسلط بر صنعت تا سال ۲۰۳۰ شد. پیشرفت به سوی این اهداف متفاوت بوده است. شرکتهای چینی در زمینههایی مانند تشخیص تصویر با کمک هوش مصنوعی و رانندگی خودکار که با ترس کمتری پیرامون دغدغههای دولت همراه هستند، عملکرد خوبی دارند.
در هر حال، چین همچنان از نظر سرمایهگذاری و نوآوری پشت سر آمریکا قرار دارد. تحریمهای آمریکا، سرمایهگذاران خارجی را متوقف کرده است. بدتر از آن این است که آمریکا صادرات نیمهرساناهای پیشرفته به چین را که تامینکننده انرژی هوش مصنوعی هستند، محدود کرده و این اقدام میتواند صنعت را دچار مشکل کند.
چین ممکن است موفقیت بیشتری در زمینه مقررات داشته باشد. براساس طرح جامع ارائهشده چین، این کشور تا سال ۲۰۳۰ رمز اخلاقی جهان را برای هوش مصنوعی نوشته است. اگرچه این زمان بسیار طولانی است اما قوانین آن در مورد هوش مصنوعی مولد، دقیقتر و گستردهتر از مواردی هستند که در هر جای دیگری پیشنهاد شدهاند و بدین ترتیب، بر بحث در مورد مدیریت فناوری جدید تأثیر میگذارند. اگر چین به سرعت قوانین جدیدی را وضع کند، کشورهای دیگر از آن درس خواهند گرفت. یکی از خطرات احتمالی این است که چنین روندی بیش از اندازه قوی حرکت کند و مانع نوآوری شود اما «جفری دینگ»(Jeffrey Ding)، پژوهشگر «دانشگاه جرج واشنگتن»(GWU) در مورد طرف دیگر بحث صحبت کرد. او به نبوغ شرکتهای اینترنتی چین اشاره کرد و گفت که گاهی اوقات موانع به نوآوری ختم میشوند.
در هر حال، این ایده که چین ممکن است به عنوان راهنمای اصلی در مورد اصول اخلاقی هوش مصنوعی عمل کند، میتواند دولتهای غربی را به وحشت بیاندازد. آنها ممکن است نگرانیهای مشابه چین را در مورد اطلاعات نادرست و حفاظت از دادهها داشته باشند اما دلایل آنها مشابه نیست.
منبع: ایسنا