وقت آن است که در مورد خطرات واقعی هوش مصنوعی صحبت کنیم

جای تعجب نیست که همه در مورد هوش مصنوعی و عجله اخیر برای استقرار مدل های زبان بزرگ صحبت می کردند. پیش از کنفرانس، سازمان ملل متحد بیانیه‌ای صادر کرد و شرکت‌کنندگان را تشویق کرد تا بر نظارت و شفافیت هوش مصنوعی تمرکز کنند.

با این حال من تعجب کردم چقدر گفتگوها در مورد خطرات هوش مصنوعی مولد در رایت کان با همه هشدارهای صداهای بزرگ سیلیکون ولی متفاوت بود. که در اخبار خوانده ام

در طول چند هفته گذشته، مشاهیر فناوری مانند سام آلتمن، مدیر عامل OpenAI، جف هینتون، کارمند سابق گوگل، یوشوا بنجیو، محقق برتر هوش مصنوعی، ایلان ماسک و بسیاری دیگر خواستار مقررات و اقدام فوری برای رسیدگی به «خطرات وجودی» شده‌اند. انقراض – که هوش مصنوعی برای بشریت ایجاد می کند.

مسلماً استقرار سریع مدل‌های زبانی بزرگ بدون ارزیابی ریسک، افشای داده‌ها و فرآیندهای آموزشی، یا ظاهراً توجه زیادی به نحوه استفاده نادرست از فناوری، نگران‌کننده است. اما سخنرانان در چندین جلسه در رایت کان تکرار کردند که این هجوم طلای هوش مصنوعی محصول سودجویی شرکت است، نه لزوماً ناتوانی نظارتی یا اجتناب ناپذیری فناوری.

در همان جلسه اول، گیدئون لیچفیلد، سردبیر برتر Wired (و سردبیر سابق Tech Review) و Urvashi Aneja، بنیانگذار Digital Futures Lab، پا به پای کنت واکر گوگل رفتند.

ساتیا نادلا از مایکروسافت گفت که او می خواستم گوگل را به رقص درآورم. لیچفیلد گفت و گوگل رقصید. ما اکنون، همه ما، در حالی که دماغ خود را نگه می داریم به خلاء می پریم زیرا این دو شرکت در آنجا تلاش می کنند یکدیگر را شکست دهند. واکر، در پاسخ، بر مزایای اجتماعی که پیشرفت‌های هوش مصنوعی می‌تواند در زمینه‌هایی مانند کشف دارو به ارمغان بیاورد، تاکید کرد و تعهد گوگل به حقوق بشر را مجدداً اعلام کرد.

روز بعد، تیمنیت گبرو، محقق هوش مصنوعی، مستقیماً به بحث در مورد خطرات وجودی ناشی از هوش مصنوعی پرداخت: «انتساب آژانس به یک ابزار یک اشتباه است، و این یک تاکتیک انحرافی است. و اگر می بینید چه کسی اینطور صحبت می کند، به معنای واقعی کلمه همان افرادی هستند که میلیاردها دلار به این شرکت ها ریخته اند.»

او گفت: «همین چند ماه پیش، جف هینتون در مورد GPT-4 و اینکه چگونه پروانه جهان است صحبت می کرد. اوه، مانند یک کرم است که داده ها را می گیرد و سپس به یک پروانه زیبا پرواز می کندو اکنون ناگهان یک خطر وجودی است. منظورم این است که چرا مردم این افراد را جدی می گیرند؟»

کارشناسانی مانند فردریک کالتیونر، مدیر فناوری و حقوق بشر سازمان دیده بان حقوق بشر، ناامید شده از روایت های پیرامون هوش مصنوعی، پیشنهاد می کنند خود را در معرض خطرات قرار دهیم. قبلاً طاعون AI را می شناسید به جای حدس و گمان در مورد آنچه ممکن است رخ دهد.

و برخی مضرات واضح و مستند به دلیل استفاده از هوش مصنوعی وجود دارد. آنها عبارتند از:

  • افزایش و تقویت اطلاعات غلط نشان داده شده است که الگوریتم‌های توصیه در پلتفرم‌های رسانه‌های اجتماعی مانند اینستاگرام، توییتر و یوتیوب بدون در نظر گرفتن دقت، محتوای شدید و از نظر احساسی متقاعدکننده را در اولویت قرار می‌دهند. LLM ها با تولید اطلاعات نادرست قانع کننده به نام “توهم” به این مشکل کمک می کنند. (اطلاعات بیشتر در مورد آن در زیر)
  • داده ها و خروجی های آموزشی مغرضانه مدل‌های هوش مصنوعی معمولاً بر روی مجموعه داده‌های بایاس آموزش داده می‌شوند که می‌تواند منجر به خروجی‌های سوگیری شود. این امر می‌تواند نابرابری‌های اجتماعی موجود را تقویت کند، مانند الگوریتم‌هایی که هنگام تعیین امتیاز به افراد برای ارتکاب کلاهبرداری رفاهی تبعیض قائل می‌شوند، یا سیستم‌های تشخیص چهره که در زنان با پوست تیره‌تر از مردان سفیدپوست دقت کمتری دارند. مواردی از انتشار محتوای نژادپرستانه توسط ChatGPT نیز مستند شده است.
  • تخریب حریم خصوصی کاربران آموزش مدل‌های هوش مصنوعی به حجم عظیمی از داده‌ها نیاز دارد که اغلب از وب حذف می‌شوند یا خریداری می‌شوند و سؤالاتی در مورد رضایت و حفظ حریم خصوصی ایجاد می‌کنند. شرکت‌هایی که مدل‌های زبان بزرگی مانند ChatGPT و Bard را توسعه داده‌اند، هنوز اطلاعات زیادی در مورد مجموعه داده‌های مورد استفاده برای آموزش آنها منتشر نکرده‌اند، اگرچه مطمئناً حاوی داده‌های زیادی از اینترنت هستند.

کالتیونر می گوید که او به ویژه نگران است که چت ربات های مولد هوش مصنوعی در زمینه های مخاطره آمیز مانند درمان سلامت روان مستقر شوند: “من نگران موارد استفاده کاملاً بی پروا از هوش مصنوعی مولد برای چیزهایی هستم که این فناوری به سادگی برای هدف طراحی نشده یا مناسب نیست.”

گبرو نگرانی‌های خود را در مورد اثرات زیست‌محیطی ناشی از مقادیر زیاد توان محاسباتی مورد نیاز برای اجرای مدل‌های پیچیده زبانی تکرار کرد. (او می گوید که به دلیل مطرح کردن این نگرانی ها و سایر نگرانی ها در تحقیقات داخلی از گوگل اخراج شده است.) او خاطرنشان کرد که مدیران ChatGPT که با دستمزدهای پایین کار می کنند، در تلاش های خود برای کاهش سمیت خروجی های مدل نیز دچار PTSD شده اند.

کالتیونر در مورد نگرانی در مورد آینده بشریت می پرسد: «انقراض کیست؟ انقراض کل نسل بشر؟ ما در حال حاضر شاهد آسیب افرادی هستیم که به لحاظ تاریخی به حاشیه رانده شده اند. به همین دلیل آن را کمی بدبینانه می‌دانم.»

دیگه چی دارم میخونم

  • سازمان های دولتی ایالات متحده در حال استقرار GPT-4 هستندبر اساس اعلامیه مایکروسافت که توسط بلومبرگ گزارش شده است. OpenAI ممکن است خواهان مقرراتی برای چت بات خود باشد، اما در عین حال، می خواهد آن را به دولت ایالات متحده نیز بفروشد.
  • مشکل توهم ChatGPT ممکن است قابل رفع نباشد. به گفته محققان MIT، مدل‌های زبانی بزرگ زمانی که با یکدیگر بحث می‌کنند دقیق‌تر می‌شوند، اما دقت واقعی در ظرفیت آنها گنجانده نشده است، همانطور که در این داستان واقعا مفید از واشنگتن پست توضیح داده شده است. اگر توهمات غیرقابل رفع باشند، ممکن است فقط در شرایط محدود بتوانیم به طور قابل اعتماد از ابزارهایی مانند ChatGPT استفاده کنیم.
  • طبق تحقیقات وال استریت ژورنال، دانشگاه استنفورد و دانشگاه ماساچوست، آمهرست، اینستاگرام میزبان شبکه‌های بزرگی از حساب‌های کاربری است که محتوای سوءاستفاده جنسی از کودکان را منتشر می‌کنند. این پلتفرم با تشکیل یک کارگروه برای بررسی مشکل پاسخ داد. بسیار تکان دهنده است که چنین مشکل مهمی توسط ناظران محتوای پلتفرم و الگوریتم‌های تعدیل خودکار مورد توجه قرار نگیرد.

چیزی که این هفته یاد گرفتم

گزارش جدیدی توسط گروه حقوق بشر PSCORE مستقر در کره جنوبی به جزئیات روند درخواست چند روزه مورد نیاز برای دسترسی به اینترنت در کره شمالی می پردازد. فقط چند ده خانواده متصل به کیم جونگ اون دسترسی نامحدود به اینترنت دارند و تنها «چند هزار» کارمند دولتی، محقق و دانش‌آموز می‌توانند به نسخه‌ای دسترسی داشته باشند که تحت نظارت شدید است. همانطور که مت برگس در وایرد گزارش می دهد، روسیه و چین احتمالاً زیرساخت وب بسیار کنترل شده آن را به کره شمالی عرضه می کنند.

Kellen Odom

مدافع رسانه های اجتماعی گیک غذا. کاوشگر. علاقه مندان به تلویزیون پیشگام بیکن افراطی. کل نینجا اینترنت. تنظیم کننده.

تماس با ما