Ray Kurzweil، آینده پژوه و مدیر مهندسی در گوگل، با انتشار رد نامه ای خواستار توقف تحقیقات هوش مصنوعی شد و دلایلی را ارائه داد که چرا این پیشنهاد غیرعملی است و پیشرفت های پزشکی و نوآوری هایی را که به شدت به بشریت کمک می کند، محروم می کند.
نامه بین المللی برای توقف توسعه هوش مصنوعی
نامه ای سرگشاده با امضای دانشمندان و افراد مشهور از سراسر جهان (منتشر شده در FutureOfLife.org) خواستار توقف کامل در توسعه هوش مصنوعی قدرتمندتر از GPT-4، آخرین نسخه ایجاد شده توسط OpenAI شد.
علاوه بر توقف توسعه بیشتر هوش مصنوعی، آنها همچنین خواستار توسعه پروتکلهای ایمنی شدند که توسط کارشناسان مستقل شخص ثالث نظارت میشوند.
برخی از نکاتی که نویسندگان نامه سرگشاده به آن اشاره می کنند:
- هوش مصنوعی یک خطر عمیق است
- توسعه هوش مصنوعی تنها زمانی باید ادامه یابد که کاربردهای مفید این فناوری شمارش و توجیه شوند
- هوش مصنوعی تنها در صورتی باید ادامه یابد که «ما» (هزاران امضاکننده نامه) مطمئن باشیم که خطرات هوش مصنوعی قابل مدیریت هستند.
- توسعه دهندگان هوش مصنوعی فراخوانده شده اند تا با سیاست گذاران برای توسعه سیستم های حکمرانی هوش مصنوعی متشکل از نهادهای نظارتی همکاری کنند.
- توسعه فناوریهای واترمارک برای کمک به شناسایی محتوای ایجاد شده توسط هوش مصنوعی و کنترل گسترش فناوری.
- سیستمی برای تعیین مسئولیت برای آسیب های ایجاد شده توسط هوش مصنوعی
- ایجاد نهادهایی برای مقابله با اختلالات ناشی از فناوری هوش مصنوعی
به نظر میرسد این نامه از دیدگاهی میآید که فناوری هوش مصنوعی متمرکز است و میتواند توسط چند سازمانی که این فناوری را کنترل میکنند، متوقف شود. اما هوش مصنوعی منحصراً در دست دولتها، مؤسسات تحقیقاتی و شرکتها نیست.
در این مرحله هوش مصنوعی یک فناوری منبع باز و غیرمتمرکز است که توسط هزاران نفر در مقیاس جهانی از همکاری توسعه یافته است.
Ray Kurzweil: آینده پژوه، نویسنده و مدیر مهندسی در گوگل
ری کورزویل از دهه 1960 نرمافزار و ماشینهایی را طراحی میکند که بر هوش مصنوعی متمرکز شدهاند، او کتابهای محبوب بسیاری در این زمینه نوشته است و به دلیل پیشبینیهای درست درباره آینده مشهور است.
از 147 پیش بینی او در مورد زندگی در سال 2009، تنها سه پیش بینی، در مجموع 2 درصد، اشتباه بود.
از جمله پیشبینیهای او در دهه 1990 این است که بسیاری از رسانههای فیزیکی مانند کتابها با دیجیتالی شدن محبوبیت خود را از دست خواهند داد. در زمانی در دهه 1990 که کامپیوترها بزرگ و حجیم بودند، او پیشبینی کرد که کامپیوترها تا سال 2009 به اندازهای کوچک خواهند بود که بتوان آنها را پوشید، که درست شد.چگونه پیش بینی های من انجام می شود – 2010 PDF).
پیشبینیهای اخیر Ray Kurzweil بر تمام خوبیهایی که هوش مصنوعی به همراه خواهد داشت، به ویژه در پیشرفتهای پزشکی و علمی متمرکز است.
کورزویل همچنین بر اخلاق هوش مصنوعی متمرکز است.
در سال 2017 او یکی از شرکت کنندگان (به همراه سام آلتمن مدیر عامل OpenAI) بود که نامه ای سرگشاده به نام اصول هوش مصنوعی Asilomar که همچنین در وب سایت Future of Life، دستورالعمل هایی برای توسعه ایمن و اخلاقی فناوری های هوش مصنوعی منتشر شده است.
از جمله اصولی که او به ایجاد آنها کمک کرد:
- «هدف تحقیقات هوش مصنوعی باید ایجاد هوش غیرمستقیم، بلکه هوش سودمند باشد.
- سرمایه گذاری در هوش مصنوعی باید با بودجه برای تحقیق در مورد اطمینان از استفاده مفید از آن همراه باشد
- باید تبادل سازنده و سالم بین محققان و سیاستگذاران هوش مصنوعی وجود داشته باشد.
- هوش مصنوعی پیشرفته می تواند نشان دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود.
- ابراطلاعات فقط باید در خدمت آرمان های اخلاقی مشترک و به نفع کل بشریت باشد تا یک دولت یا سازمان.»
پاسخ کورزویل به نامه سرگشاده درخواست توقف در توسعه هوش مصنوعی ناشی از یک عمر فناوری نوآورانه از نقطه نظر تمام خوبی های مفیدی است که می تواند برای بشریت و جهان طبیعی داشته باشد.
پاسخ او بر سه نکته اصلی متمرکز بود:
- فراخوان مکث بسیار مبهم است که عملی نباشد
- همه ملت ها باید با مکث موافقت کنند وگرنه اهداف از همان ابتدا شکست می خورند
- توقف در توسعه، مزایایی مانند شناسایی درمان بیماری ها را نادیده می گیرد.
خیلی مبهم برای عملی بودن
اولین نکته او در مورد نامه این است که خیلی مبهم است زیرا باعث توقف در هوش مصنوعی قدرتمندتر از GPT-4 می شود، که فرض می کند GPT-4 تنها نوع هوش مصنوعی است.
کورزویل نوشت:
با توجه به نامه سرگشاده برای «مکث کردن» تحقیقات روی هوش مصنوعی «قدرتمندتر از GPT-4»، این معیار برای عملی بودن بیش از حد مبهم است.
ملت ها از مکث منصرف خواهند شد
نکته دوم او این است که خواسته های ذکر شده در نامه تنها در صورتی می تواند کارساز باشد که همه محققان در سراسر جهان داوطلبانه همکاری کنند.
هر کشوری که از امضای قرارداد امتناع کند، از این مزیت برخوردار خواهد بود، که احتمالاً اتفاقی خواهد افتاد.
او می نویسد:
و این پیشنهاد با یک مشکل جدی هماهنگی مواجه است: آنهایی که با توقف موافقت می کنند ممکن است به مراتب از شرکت ها یا کشورهایی که مخالف هستند عقب بیفتند.
این نکته روشن می کند که هدف توقف کامل عملی نیست، زیرا کشورها مزیتی را از دست نخواهند داد و همچنین هوش مصنوعی دموکراتیک شده و منبع باز است و در دست افراد در سراسر جهان است.
هوش مصنوعی مزایای قابل توجهی برای هوش مصنوعی به ارمغان می آورد
سرمقاله هایی وجود دارد که هوش مصنوعی را به عنوان سود بسیار کمی برای جامعه رد می کند و استدلال می کند که افزایش بهره وری کارگران برای توجیه خطراتی که آنها از آن می ترسند کافی نیست.
نکته پایانی کورزویل این است که نامه سرگشاده ای که به دنبال توقف در توسعه هوش مصنوعی است، تمام خوبی هایی را که هوش مصنوعی می تواند انجام دهد نادیده می گیرد.
او توضیح می دهد:
پیشرفت هوش مصنوعی در زمینههای حیاتی مانند پزشکی و بهداشت، آموزش، دستیابی به منابع انرژی تجدیدپذیر برای جایگزینی سوختهای فسیلی و بسیاری از زمینههای دیگر مزایای فوقالعادهای دارد.
اگر بخواهیم مزایای عمیق هوش مصنوعی برای سلامت و بهره وری را در عین اجتناب از خطرات واقعی باز کنیم، نکات ظریف بیشتری مورد نیاز است.
خطرات، ترس از ناشناخته ها و فواید برای بشریت
کورزویل نکات خوبی را در مورد اینکه چگونه هوش مصنوعی می تواند برای جامعه مفید باشد بیان می کند. حرف او مبنی بر اینکه هیچ راهی برای توقف واقعی هوش مصنوعی وجود ندارد، صدا است.
توضیح او در مورد هوش مصنوعی بر مزایای عمیقی که در ذات هوش مصنوعی برای بشر وجود دارد، تأکید می کند.
آیا ممکن است اجرای OpenAI از هوش مصنوعی به عنوان یک چت بات، هوش مصنوعی را بی اهمیت جلوه دهد و منافع بشریت را تحت الشعاع قرار دهد، در حالی که به طور همزمان افرادی را که نمی دانند هوش مصنوعی مولد چگونه کار می کند می ترساند؟
تصویر برجسته توسط Shutterstock/Iurii Motov
منبع: https://www.searchenginejournal.com/ray-kurzweil-rebuts-calls-to-pause-ai-research/486315/