رویداد DEFCON امسال هزاران هکر را به جنگ مدل‌های هوش مصنوعی می‌فرستد

بزرگ‌ترین رویداد سالانه هکرها امسال می‌خواهد از هکرها کمک بگیرد تا مشکلات و سوگیری‌های مدل‌های هوش مصنوعی را کشف کند.

 

با توجه به این که مدل‌های هوش مصنوعی در ماه‌های اخیر جهان را به تسخیر خود درآورده‌اند، گردهمایی دف‌کان هم امسال از هکرها دعوت کرده است تا روی کشف باگ‌ها و سوگیری‌های مدل‌های زبانی بزرگ (LLM) شرکت‌های مختلف ازجمله OpenAI، گوگل و Anthropic تمرکز کنند.

به‌گزارش The Register، این گردهمایی که بزرگ‌ترین رویداد سالانه هکرهاست و در لاس وگاس برگزار می‌شود، امسال میزبان هزاران نفر ازجمله صدها دانشجو از مؤسسات آموزشی و جوامع مختلف خواهد بود که جمعی از آن‌ها به‌دنبال کشف نقایص مدل‌های زبانی بزرگ می‌روند. این مدل‌ها همان فناوری پشت ابزارهایی مثل ChatGPT و بارد گوگل هستند.

«سوِن کت‌ول»، بنیان‌گذار گروه AI Village که مسئول دعوت‌کننده هکرها به این رویداد بوده است، در بیانیه‌ای می‌گوید: «شرکت‌ها به‌طور سنتی این مشکل را با تیم‌های قرمز (Red Teams) تخصصی خود حل می‌کردند. البته این کار معمولاً در خفا انجام می‌شد. اما مشکلات این مدل‌ها تا زمانی که افراد بیشتری از چگونگی تشکیل تیم‌های قرمز و ارزیابی مشکلات آگاه نشوند، برطرف نخواهد شد.»

 

هکرها در دف‌کان امسال کدام مدل‌های هوش مصنوعی را بررسی خواهند کرد؟

بنابراین دف‌کان امسال در واقع تیم قرمزی را تشکیل می‌دهد که برای حل این مشکلات ساخته می‌شود. AI Village برای شرکت‌کنندگان در این رویداد لپ‌تاپ و دسترسی محدود به مدل‌های زبانی شرکت‌های مختلف را فراهم می‌کند. این مدل‌ها در حال حاضر شامل مدل‌های شرکت Anthropic، گوگل، Hugging Face، انویدیا، OpenAI و Stability است.

افزون‌براین، اعلام شده که این رویداد با مشارکت مایکروسافت برگزار می‌شود، بنابراین شاید امکان دسترسی به مدل بینگ هم وجود داشته باشد. هکرها قرار است به پلتفرم ارزیابی شرکت Scale AI هم دسترسی پیدا کنند تا بتوانند نرم‌افزارها را دقیق‌تر و بهتر بررسی نمایند.

این خبر در شرایطی اعلام می‌شود که «کاملا هریس»، معاون اول رئیس جمهور آمریکا و چند مقام ارشد دولتی به‌تازگی با رؤسای OpenAI، مایکروسافت، Anthropic و گوگل درباره تهدیدهای هوش مصنوعی دیدار و صحبت کرده بودند.

رویداد دف‌کان 2023 از 19 تا 22 مرداد امسال در لاس وگاس آمریکا برگزار خواهد شد.

نویسنده: ایمان صاحبی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


The reCAPTCHA verification period has expired. Please reload the page.

دکمه بازگشت به بالا