سرعت فوق العاده خطرناک
سرعت سریع تحقیقات هوش مصنوعی نیز کمکی نمی کند. پیشرفت های جدید ضخیم و سریع به دست می آیند. تنها در سال گذشته، شرکتهای فناوری از سیستمهای هوش مصنوعی که تصاویر را از متن تولید میکنند، رونمایی کردهاند و فقط چند هفته بعد، نرمافزار هوش مصنوعی چشمگیرتری را اعلام کردند که میتواند به تنهایی از متن نیز فیلم بسازد. این پیشرفت چشمگیر است، اما آسیب های احتمالی مرتبط با هر پیشرفت جدید می تواند چالشی بی وقفه ایجاد کند. هوش مصنوعی متن به تصویر میتواند حق نسخهبرداری را نقض کند و ممکن است بر روی مجموعههای داده پر از مواد سمی آموزش داده شود که منجر به نتایج ناامن شود.
چاودوری میگوید: «تعقیب هر چیزی که واقعاً مرسوم است، موضوع داغ در توییتر خستهکننده است. او میگوید اخلاقگرایان نمیتوانند درباره مشکلات بیشماری که هر پیشرفت جدید ایجاد میکند متخصص باشند، با این حال هنوز احساس میکند که باید از ترس از دست دادن چیزی مهم، با هر چرخش و چرخش چرخه اطلاعات هوش مصنوعی همراه باشد.
چاودری می گوید که کار کردن به عنوان بخشی از یک تیم با منابع خوب در توییتر به او کمک کرده است و به او اطمینان می دهد که مجبور نیست این بار را به تنهایی تحمل کند. او میگوید: «میدانم که میتوانم برای یک هفته بروم و همه چیز به هم نریزد، زیرا من تنها کسی نیستم که این کار را انجام میدهم.
اما چاودری در یک شرکت فناوری بزرگ با بودجه و تمایل به استخدام یک تیم کامل برای کار روی هوش مصنوعی مسئول کار می کند. همه به این اندازه خوش شانس نیستند.
به گفته Vivek Katial، افراد در استارتآپهای کوچکتر هوش مصنوعی با فشار زیادی از سوی سرمایهگذاران سرمایهگذاری خطرپذیر برای رشد کسبوکار مواجه میشوند و چکهایی که از قرارداد با سرمایهگذاران دریافت میکنید، اغلب منعکسکننده کار اضافی مورد نیاز برای ایجاد فناوری مسئولانه نیستند. ، دانشمند داده در Multitudes، یک استارت آپ استرالیایی که بر روی تجزیه و تحلیل داده های اخلاقی کار می کند.
کتیال میگوید، بخش فناوری باید از سرمایهگذاران خطرپذیر بیشتر مطالبه کند تا “این واقعیت را درک کنند که آنها باید برای فناوریای که مسئولیتپذیرتر خواهد بود، هزینه بیشتری بپردازند.”
بر اساس گزارشی که امسال توسط MIT Sloan Management Review و Boston Consulting Group منتشر شد، بسیاری از شرکتها حتی نمیتوانند ببینند که برای شروع مشکل دارند. هوش مصنوعی برای 42 درصد از پاسخ دهندگان این گزارش یک اولویت استراتژیک بود، اما تنها 19 درصد گفتند که سازمان آنها یک برنامه هوش مصنوعی مسئولانه را اجرا کرده است.
گوپتا میگوید: برخی ممکن است بر این باور باشند که به کاهش خطرات هوش مصنوعی فکر میکنند، اما آنها به سادگی افراد مناسب را برای نقشهای مناسب استخدام نمیکنند و سپس منابع لازم برای عملی کردن هوش مصنوعی مسئولانه را در اختیار آنها قرار نمیدهند.