توسعهدهندگان هوش مصنوعی A.I، اخلاقگرایان و بیل گیتس، بنیانگذار مایکروسافت، در هفته گذشته در حال بررسی پاسخ به نامه سرگشاده ایلان ماسک، مدیرعامل تسلا و استیو وزنیاک، بنیانگذار اپل بودند که خواستار توقف ششماهه کار روی سیستمهای هوش مصنوعی هستند.
به گزارش گشینیز این نامه که اکنون بیش از ۱۳۵۰۰ امضا دارد، نگرانی از توسعه برنامههایی مانند ChatGPT OpenAI، چتربات هوش مصنوعی مایکروسافت Bing و Alphabet’s Bard را عنوان میکند که در صورت عدم کنترل میتواند عواقب منفی داشته باشد. ارائه اطلاعات نادرست گسترده و واگذاری مشاغل انسانی به ماشینها از جمله این عواقب منفی است.
اما بخشهای بزرگی از صنعت فناوری، از جمله یکی از بزرگترین سرشناسان آن، در حال عقبنشینی هستند.
گیتس روز دوشنبه به رویترز گفت: «فکر نمیکنم درخواست از یک گروه خاص برای توقف، چالشها را حل کند. توقف در یک صنعت جهانی دشوار خواهد بود.»
کارشناسان میگویند چیزیکه این بحث را جالب میکند، اشاره این نامه سرگشاده به برخی نگرانیهای مشروع است، اما بهنظر میرسد راه حل پیشنهادی آن غیرممکن باشد.
در اینجا دلیل و علت وقوع اتفاقات، از قوانین دولتی گرفته تا هرگونه شورش بالقوه روباتها بررسی شده است.
ماسک و وزنیاک نگران چه چیزی هستند؟
نگرانیهای این نامه سرگشاده نسبتاً ساده است: «در ماههای اخیر شاهد بودیم که آزمایشگاههای A.I. در مسابقهای خارج از کنترل بر توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس نمیتواند آنها را درک، پیشبینی یا کنترل کند، تمرکز کردهاند.»
سیستمهای هوش مصنوعی اغلب با تعصبات برنامهنویسی و مشکلات بالقوه حریم خصوصی همراه هستند. آنها میتوانند اطلاعات نادرست را بهطور گسترده منتشر کنند، بهخصوص زمانیکه بهطور مخرب استفاده شوند.
و تصور اینکه شرکتها سعی کنند با جایگزینکردن مشاغل انسانی از دستیاران شخصی گرفته تا نمایندگان خدمات مشتری با سیستمهای زبانی A.I، صرفهجویی کنند، آسان است.
ایتالیا قبلاً ChatGPT را بهدلیل مسائل مربوط به حریم خصوصی ناشی از نقض دادههای OpenAI، بهطور موقت ممنوع کرده است. دولت بریتانیا هفته گذشته توصیههای مقرراتی را منتشر کرده و سازمان مصرفکنندگان اروپا از قانونگذاران در سراسر اروپا خواسته است تا مقررات را افزایش دهند.
در ایالات متحده، برخی از اعضای کنگره خواستار قوانینی جدید برای تنظیم فنآوری A.I هستند. ماه گذشته، کمیسیون تجارت فدرال دستورالعملهایی را برای کسبوکارهایی که رباتهای چت را توسعه میدهند، صادر کرد، به این معنی که دولت فدرال نظارتی دقیق بر سیستمهای هوش مصنوعی دارد که میتواند توسط کلاهبرداران استفاده شود.
چندین قانون حفظ حریم خصوصی ایالتی نیز که در سال گذشته تصویب شد، با هدف وادار کردن شرکتها به افشای زمان و چگونگی کارکرد A.I صورت گرفت و به مشتریان این فرصت را داد که از ارائه دادههای شخصی برای تصمیمگیریهای خودکار هوش مصنوعی خودداری کنند.
این قوانین در حال حاضر در کالیفرنیا، کانکتیکات، کلرادو، یوتا و ویرجینیا فعال هستند.
توسعهدهندگان A.I چه میگویند؟
حداقل یک شرکت ایمنی و تحقیقات A.I. که در سانفرانسیسکو مستقر است، هنوز نگران نیست. این شرکت در یک پست وبلاگی نوشت: «فناوریهای فعلی نگرانی قریبالوقوع ایجاد نمیکنند.»
Anthropic که در ماه فوریه ۴۰۰ میلیون دلار سرمایهگذاری از Alphabet دریافت کرده و چتبات A.I. خود را دارد، اشاره کرده است که این سیستمها میتوانند در دهههای آینده بسیار قویتر شوند. اما حفاظت کنونی نیز میتواند به کاهش خطرات این مسیر کمک کند. اما هنوز هیچکس مطمئن نیست که شکل حفاظت باید چگونه باشد.
سخنگوی شرکت میگوید که نامه سرگشاده میتواند برای ایجاد مکالمه در مورد موضوع مفید باشد. اما مشخص نکرد که آیا آنتروپیک از درخواست توقف ششماهه پشتیبانی میکند یا خیر.
سام آلتمن، مدیر عامل OpenAI در توییتی نوشت که یک چارچوب نظارتی جهانی موثر مثل حکمرانی دموکراتیک و هماهنگی کافی در میان شرکتهای پیشرو هوش مصنوعی عمومی (AGI)، میتواند کمککننده باشد.
آلتمن، شرکتی که توسط مایکروسافت تأمین مالی میشود، ChatGPT را میسازد و به توسعه چتربات هوش مصنوعی بینگ کمک میکند، مشخص نکرده است که این سیاستها میتواند شامل چه مواردی باشد.
برخی محققان موضوع دیگری را مطرح میکنند: توقف تحقیقات میتواند پیشرفت در صنعت در حال حرکت را متوقف کند و به کشورهای مستبد اجازه دهد تا سیستمهای پیشروی هوش مصنوعی خود را توسعه دهند.
ریچارد سوچر، محقق A.I و مدیر عامل راهاندازی موتور جستوجوی You.com میگوید: «برجستهکردن تهدیدات بالقوه A.I میتواند باعث شود تا از این فناوری برای اهداف نادرست استفاده شود.»
سوچر میگوید که اغراق در بیواسطگی تهدیدها، باعث ایجاد هیستری غیر ضروری پیرامون این موضوع میشود. او اضافه میکند که اجرای پیشنهادهای نامه سرگشاده غیر ممکن است و مشکل را در سطحی اشتباه حل میکند.
چه اتفاقاتی در پیش رو است؟
با پاسخ خاموش به این نامه سرگشاده، بهنظر میرسد توسعهدهندگان نشان دادند که بعید است غولهای فناوری و استارتآپها بهطور داوطلبانه کار خود را متوقف کنند.
از آنجاییکه قانونگذاران در ایالات متحده و اروپا به شفافسازی توسعهدهندگان A.I فشار میآورند، بهنظر میرسد درخواست نامه برای افزایش مقررات دولتی محتمل باشد.
FTC در ایالات متحده، میتواند قوانینی را وضع کند که توسعهدهندگان هوش مصنوعی را ملزم میکند تا سیستمهای جدید را با مجموعه دادههایی که شامل اطلاعات نادرست یا سوگیری ضمنی نیستند، آموزش داده و محصولات را قبل و بعد از انتشار برای عموم مورد آزمایش قرار دهند.
استوارت راسل، دانشمند کامپیوتر دانشگاه برکلی و یکی از محققانی که نامه سرگشاده را امضا کرده است، میگوید: «چنین تلاشهایی باید قبل از پیشرفت بیشتر این فناوری انجام شود و توقف استفاده از آن به شرکتها زمان بیشتری میدهد تا ثابت کنند که سیستمهای هوش مصنوعی پیشرفته خطرناک نیستند.»
بهنظر میرسد که هر دو طرف بر سر یکچیز توافق دارند: بدترین سناریوهای توسعه سریع A.I ارزش جلوگیری از آنرا دارند که در کوتاهمدت به کاربران کمک میکند تا از آنها در برابر کلاهبرداران محافظت شود.
و در دراز مدت، میتواند بهمعنای جلوگیری از پیشیگرفتن سیستمهای A.I از هوش انسانی و حفظ توانایی کنترل موثر آن باشد.
گیتس در سال ۲۰۱۵ گفت: «وقتی شروع به ساخت ماشینهایی کنید که با هوش انسانها رقابت کنند و از آنها پیشی بگیرند، زندهماندن برای ما بسیار دشوار خواهد بود و این یک امر اجتنابناپذیر است.»