سام آلتمن، مدیر عامل OpenAI، به درخواست کمیسیون تجارت فدرال به عنوان بخشی از تحقیقات برای تعیین اینکه آیا شرکت در اقدامات ناعادلانه یا فریبنده مربوط به حریم خصوصی، امنیت داده ها و خطرات آسیب مصرف کننده، به ویژه مرتبط با شهرت، شرکت کرده است، پاسخ داد.
بسیار ناامید کننده است که ببینیم درخواست FTC با نشت شروع می شود و به ایجاد اعتماد کمکی نمی کند.
گفته شد، برای ما بسیار مهم است که فناوری ایمن و طرفدار مصرف کننده باشد، و ما مطمئن هستیم که از قانون پیروی می کنیم. البته ما با FTC کار خواهیم کرد.
– سم آلتمن (@sama) 13 جولای 2023
FTC اطلاعاتی را از OpenAI درخواست کرده است که مربوط به ژوئن 2020 است، همانطور که در یک سند فاش شده به دست آمده توسط واشنگتن پست.
موضوع بررسی: آیا OpenAI نقض کرده است بخش 5 قانون FTC؟
اسنادی که OpenAI باید ارائه کند باید شامل جزئیاتی در مورد آموزش مدل زبان بزرگ (LLM)، اصلاح، تقویت از طریق بازخورد انسانی، قابلیت اطمینان پاسخ، و سیاستها و شیوههای مربوط به حریم خصوصی مصرفکننده، امنیت، و کاهش خطر باشد.
ما در مورد محدودیت های فناوری خود شفاف هستیم، به خصوص وقتی کوتاهی می کنیم. و ساختار سود سقفی ما به این معنی است که ما انگیزه ای برای بازدهی نامحدود نداریم.
– سم آلتمن (@sama) 13 جولای 2023
نگرانی فزاینده FTC در مورد هوش مصنوعی مولد
بررسی رویه های یک شرکت بزرگ هوش مصنوعی جای تعجب ندارد. علاقه FTC به خطرات هوش مصنوعی مولد از زمانی که ChatGPT به سرعت محبوبیت پیدا کرد، در حال افزایش است.
توجه به فناوری تصمیم گیری خودکار
که در آوریل 2021FTC دستورالعملهایی را درباره هوش مصنوعی (AI) و الگوریتمها منتشر کرد و به شرکتها هشدار داد که سیستمهای هوش مصنوعی خود را با قوانین حمایت از مصرفکننده مطابقت دهند.
بخش 5 قانون FTC، قانون گزارش اعتبار منصفانه و قانون فرصت های اعتباری برابر را به عنوان قوانین مهم برای توسعه دهندگان و کاربران هوش مصنوعی ذکر کرد.
FTC هشدار داد که الگوریتمهایی که بر اساس دادههای مغرضانه یا منطق معیوب ساخته شدهاند، میتوانند منجر به نتایج تبعیض آمیز شوند، حتی اگر ناخواسته باشند.
FTC بهترین شیوه ها را برای توسعه هوش مصنوعی اخلاقی بر اساس تجربه خود در اجرای قوانین در برابر اعمال ناعادلانه، فریب و تبعیض تشریح کرد.
توصیهها شامل سیستمهای آزمایش برای تعصب، فعال کردن ممیزیهای مستقل، محدود کردن ادعاهای بازاریابی اغراقآمیز، و سنجش آسیبهای اجتماعی در مقابل منافع است.
دستورالعمل هشدار می دهد: “اگر الگوریتم شما منجر به تبعیض اعتباری علیه یک طبقه محافظت شده شود، ممکن است با شکایتی مبنی بر نقض قانون FTC و ECOA روبرو شوید.”
AI در چک
FTC به شرکتهای هوش مصنوعی درباره راهنماییهای هوش مصنوعی خود از سال 2021 در رابطه با ادعاهای بازاریابی اغراقآمیز یا غیرمستند در مورد قابلیتهای هوش مصنوعی یادآوری کرد.
در پست از فوریه 2023این سازمان به بازاریابان هشدار داد که غرق در تبلیغات هوش مصنوعی شوند و قول هایی بدهند که محصولاتشان نمی توانند عمل کنند.
مسائل رایج ذکر شده: ادعای اینکه هوش مصنوعی می تواند بیش از آنچه فناوری فعلی اجازه می دهد انجام دهد، انجام مقایسه های پشتیبانی نشده با محصولات غیر AI و عدم آزمایش برای خطرات و سوگیری ها.
FTC تأکید کرد که بازاریابی نادرست یا فریبنده صرف نظر از پیچیدگی فناوری، رفتار غیرقانونی است.
این یادآوری چند هفته پس از آن بود که ChatGPT OpenAI به 100 میلیون کاربر رسید.
همچنین FTC یک را ارسال کرد لیست مشاغل برای فنآوران در این زمان – از جمله کسانی که دارای تخصص هوش مصنوعی هستند – برای حمایت از تحقیقات، ابتکارات سیاستگذاری و تحقیقات در مورد حمایت از مصرفکننده و رقابت در صنعت فناوری.
Deepfakes و فریب
حدود یک ماه بعد، در مارسFTC هشدار داد که ابزارهای مولد هوش مصنوعی مانند چت بات ها و دیپ فیک ها در صورت استقرار غیرمسئولانه می توانند کلاهبرداری گسترده را تسهیل کنند.
این به توسعه دهندگان و شرکت هایی که از رسانه های مصنوعی و هوش مصنوعی مولد استفاده می کنند هشدار داد تا خطرات ذاتی سوء استفاده را در نظر بگیرند.
این آژانس گفت بازیگران بد می توانند از محتوای واقعی اما جعلی این سیستم های هوش مصنوعی برای کلاهبرداری های فیشینگ، سرقت هویت، اخاذی و سایر آسیب ها استفاده کنند.
در حالی که برخی از کاربردها ممکن است سودمند باشد، FTC از شرکت ها خواست تا با توجه به بهره برداری جنایی قابل پیش بینی، ساخت یا فروش چنین ابزارهای هوش مصنوعی را بررسی کنند.
FTC توصیه کرد که شرکت هایی که به توسعه یا استفاده از هوش مصنوعی مولد ادامه می دهند باید اقدامات احتیاطی قوی برای جلوگیری از سوء استفاده انجام دهند.
همچنین نسبت به استفاده از رسانه های مصنوعی در بازاریابی گمراه کننده و عدم افشای زمانی که مصرف کنندگان با چت ربات های هوش مصنوعی در مقابل افراد واقعی تعامل دارند، هشدار داد.
هوش مصنوعی نرم افزارهای مخرب را پخش می کند
که در آوریل، FTC فاش کرد که چگونه مجرمان سایبری از علاقه به هوش مصنوعی برای انتشار بدافزار از طریق تبلیغات جعلی سوء استفاده کردند.
تبلیغات جعلی ابزارهای هوش مصنوعی و نرم افزارهای دیگر را در رسانه های اجتماعی و موتورهای جستجو تبلیغ می کردند.
کلیک کردن روی این تبلیغات، کاربران را به سایتهای شبیهسازیشده هدایت میکند که بدافزار را دانلود میکنند یا از درهای پشتی برای آلوده کردن دستگاهها بهطور ناشناخته سوءاستفاده میکنند. اطلاعات دزدیده شده سپس در وب تاریک فروخته می شد یا برای دسترسی به حساب های آنلاین قربانیان استفاده می شد.
برای جلوگیری از هک شدن، FTC توصیه کرد روی تبلیغات نرم افزار کلیک نکنید.
در صورت آلوده شدن، کاربران باید ابزارهای امنیتی و سیستم عامل ها را به روز کنند، سپس مراحل را دنبال کنند بدافزار را حذف کنید یا بازیابی حساب های در معرض خطر.
FTC به مردم هشدار داد که نسبت به گسترش پیچیده تر بدافزارهای مجرمان سایبری از طریق شبکه های تبلیغاتی احتیاط کنند.
سازمان های فدرال برای مقابله با مقررات هوش مصنوعی متحد می شوند
نزدیک به پایان آوریلچهار آژانس فدرال – دفتر حمایت مالی از مصرفکننده (CFPB)، بخش حقوق مدنی وزارت دادگستری (DOJ)، کمیسیون فرصتهای شغلی برابر (EEOC) و FTC – بیانیهای درباره نحوه نظارت بر توسعه هوش مصنوعی و اجرای آن منتشر کردند. قوانین علیه تبعیض و سوگیری در سیستم های خودکار
این آژانسها بر اساس قوانین موجود در مورد حقوق مدنی، وامدهی منصفانه، فرصتهای برابر و حمایت از مصرفکننده، بر هوش مصنوعی تاکید کردند.
آنها با هم هشدار دادند که سیستمهای هوش مصنوعی میتوانند به دلیل دادههای ناقص، مدلهای غیرشفاف و انتخابهای طراحی نامناسب، تعصب غیرقانونی را تداوم بخشند.
هدف این مشارکت ترویج نوآوری هوش مصنوعی مسئولانه است که دسترسی، کیفیت و کارایی مصرف کننده را بدون نقض حفاظت های طولانی مدت افزایش می دهد.
هوش مصنوعی و اعتماد مصرف کننده
که در ممکن استFTC به شرکتها درباره استفاده از ابزارهای جدید هوش مصنوعی مانند رباتهای گفتگو برای دستکاری ناعادلانه تصمیمات مصرفکننده هشدار داد.
پس از شرح وقایع فیلم سابق ماشین، FTC ادعا کرد که متقاعد کردن انسان مانند ربات های چت هوش مصنوعی می تواند افراد را به سمت انتخاب های مضر در مورد امور مالی، بهداشت، آموزش، مسکن و شغل سوق دهد.
اگرچه لزوماً عمدی نیست، FTC گفت عناصر طراحی که از اعتماد انسان به ماشینها برای فریب دادن مصرفکنندگان سوء استفاده میکنند، طبق قانون FTC، اعمال ناعادلانه و فریبنده هستند.
این آژانس به شرکتها توصیه کرد که از تغییر شکل بیش از حد چت رباتها اجتناب کنند و از افشای تبلیغات پولی که در تعاملات هوش مصنوعی وجود دارد، اطمینان حاصل کنند.
با افزایش پذیرش هوش مصنوعی مولد، هشدار FTC به شرکت ها هشدار می دهد تا به طور فعال اثرات اجتماعی پایین دستی را ارزیابی کنند.
آن دسته از ابزارهایی که عجله به بازار می کنند بدون بررسی اخلاقی یا حمایت های مناسب، اقدام FTC را در مورد آسیب مصرف کننده به خطر می اندازند.
نظری در مورد خطرات هوش مصنوعی
لینا خان، رئیس FTC، استدلال کرد که هوش مصنوعی مولد خطرات تثبیت تسلط قابل توجه فناوری، تقلب در توربوشارژ و خودکارسازی تبعیض را در صورت عدم کنترل به همراه دارد.
در مقاله ای که نیویورک تایمز منتشر کرد، الف چند روز پس از هشدار اعتماد مصرف کننده، خان گفت که هدف FTC ترویج رقابت و حمایت از مصرف کنندگان با گسترش هوش مصنوعی است.
خان به چند شرکت قدرتمند هشدار داد که ورودیهای کلیدی هوش مصنوعی مانند دادهها و محاسبات را کنترل میکنند، که میتواند در غیاب هوشیاری ضدتراست، تسلط آنها را بیشتر کند.
او هشدار داد که محتوای جعلی واقع بینانه از هوش مصنوعی مولد می تواند کلاهبرداری های گسترده را تسهیل کند. علاوه بر این، دادههای جانبدارانه الگوریتمهایی را به خطر میاندازد که بهطور غیرقانونی افراد را از فرصتها باز میدارد.
در حالی که خان جدید بود، سیستم های هوش مصنوعی از حمایت از مصرف کننده FTC و مقامات ضد انحصار مستثنی نیستند. با نظارت مسئولانه، خان خاطرنشان کرد که هوش مصنوعی مولد می تواند به طور عادلانه و رقابتی رشد کند و از دام های دیگر جلوگیری کند. غول های فناوری.
هوش مصنوعی و حریم خصوصی داده ها
که در ژوئنFTC به شرکت ها هشدار داد که حفاظت از حریم خصوصی مصرف کنندگان به طور یکسان در مورد سیستم های هوش مصنوعی متکی به داده های شخصی اعمال می شود.
در شکایات علیه آمازون و حلقه، FTC اعمال ناعادلانه و فریبنده با استفاده از داده های صوتی و تصویری برای آموزش الگوریتم ها را ادعا کرد.
رئیس FTC خان گفت که مزایای هوش مصنوعی بر هزینه های حفظ حریم خصوصی جمع آوری داده های تهاجمی بیشتر نیست.
این آژانس تاکید کرد که مصرف کنندگان کنترل اطلاعات خود را حفظ می کنند حتی اگر یک شرکت آن را داشته باشد. هنگامی که کارکنان داده های حساس بیومتریک را بررسی می کنند، پادمان های دقیق و کنترل های دسترسی انتظار می رود.
برای اطلاعات کودکان، FTC گفت که قانون حفظ حریم خصوصی کودکان، COPPA را به طور کامل اجرا خواهد کرد. شکایت ها دستور حذف داده های بیومتریک غیرقانونی و هر مدل هوش مصنوعی حاصل از آن را صادر کردند.
پیام برای شرکتهای فناوری روشن بود – در حالی که پتانسیل هوش مصنوعی بسیار زیاد است، تعهدات قانونی در مورد حفظ حریم خصوصی مصرفکننده همچنان مهم است.
مسابقه هوش مصنوعی مولد
نزدیک به پایان ژوئنFTC دستورالعملی صادر کرد و هشدار داد که رشد سریع هوش مصنوعی مولد میتواند نگرانیهای رقابتی را ایجاد کند، اگر ورودیهای کلیدی تحت کنترل چند شرکت فناوری مسلط قرار گیرند.
این آژانس گفت ورودیهای ضروری مانند دادهها، استعدادها و منابع محاسباتی برای توسعه مدلهای پیشرفته هوش مصنوعی مولد مورد نیاز است. این آژانس هشدار داد که اگر تعداد انگشت شماری از شرکت های بزرگ فناوری کنترل بیش از حد بر این ورودی ها به دست آورند، می توانند از این قدرت برای ایجاد اختلال در رقابت در بازارهای هوش مصنوعی مولد استفاده کنند.
FTC هشدار داد که تاکتیکهای ضدرقابتی مانند بستهبندی، تساوی، معاملات انحصاری یا خرید رقبا میتواند به شرکتهای فعلی اجازه دهد تا رقبای نوظهور را کنار بزنند و برتری خود را تثبیت کنند.
FTC اعلام کرد که مسائل رقابتی پیرامون هوش مصنوعی مولد را رصد خواهد کرد و در برابر اقدامات ناعادلانه اقدام خواهد کرد.
هدف این بود که کارآفرینان را قادر به نوآوری با فناوریهای هوش مصنوعی متحول کنند، مانند چتباتها، که میتواند تجارب مصرفکنندگان را در صنایع تغییر شکل دهد. با سیاست های درست، FTC معتقد بود که هوش مصنوعی مولد در حال ظهور می تواند پتانسیل اقتصادی کامل خود را به ارمغان بیاورد.
ادعاهای بازاریابی مشکوک
در اوایل جولایFTC در مورد ابزارهای هوش مصنوعی هشدار داد که می توانند دیپ فیک، صداهای شبیه سازی شده و افزایش متن مصنوعی ایجاد کنند، بنابراین ابزارهایی نیز ظاهر شده اند که ادعا می کنند چنین محتوای تولید شده توسط هوش مصنوعی را شناسایی می کنند.
با این حال، کارشناسان هشدار دادند که ادعاهای بازاریابی مطرح شده توسط برخی ابزارهای تشخیص ممکن است توانایی های آنها را بیش از حد بیان کند.
FTC به شرکت ها نسبت به اغراق در دقت و قابلیت اطمینان ابزارهای تشخیص خود هشدار داد. با توجه به محدودیتهای فناوری فعلی، کسبوکارها باید اطمینان حاصل کنند که بازاریابی ارزیابیهای واقعبینانه از آنچه این ابزارها میتوانند و نمیتوانند انجام دهند را منعکس میکند.
علاوه بر این، FTC خاطرنشان کرد که کاربران باید مراقب این ادعاها باشند که یک ابزار میتواند تمام تقلبهای هوش مصنوعی را بدون خطا بگیرد. تشخیص ناقص می تواند منجر به متهم کردن غیرمنصفانه افراد بی گناه مانند متقاضیان کار به ایجاد محتوای جعلی شود.
FTC چه چیزی را کشف خواهد کرد؟
تحقیقات FTC در مورد OpenAI در بحبوحه بررسی نظارتی رو به رشد سیستم های هوش مصنوعی مولد انجام می شود.
از آنجایی که این فناوریهای قدرتمند قابلیتهای جدیدی مانند چتباتها و دیپفیکها را امکانپذیر میکنند، خطرات جدیدی را در مورد تعصب، حریم خصوصی، امنیت، رقابت و فریب ایجاد میکنند.
OpenAI باید به سؤالاتی در مورد اینکه آیا در توسعه و انتشار مدل هایی مانند GPT-3 و DALL-E که مسیر میدان هوش مصنوعی را شکل داده اند اقدامات احتیاطی کافی انجام داده است، پاسخ دهد.
به نظر می رسد FTC بر روی اطمینان از همسویی اقدامات OpenAI با قوانین حمایت از مصرف کننده، به ویژه در مورد ادعاهای بازاریابی، شیوه های داده، و کاهش آسیب های اجتماعی متمرکز شده است.
نحوه واکنش OpenAI و اینکه آیا اقدامات اجرایی انجام می شود یا خیر، می تواند با پیشرفت هوش مصنوعی، سوابق قابل توجهی برای مقررات ایجاد کند.
در حال حاضر، تحقیقات FTC تأکید میکند که تبلیغات پیرامون هوش مصنوعی نباید از نظارت مسئولانه پیشی بگیرد.
سیستمهای هوش مصنوعی قوی نویدبخش هستند، اما اگر بدون پادمانهای کافی مستقر شوند، خطراتی را به همراه خواهند داشت.
شرکت های بزرگ هوش مصنوعی باید اطمینان حاصل کنند که فناوری های جدید با قوانین قدیمی حمایت از مصرف کنندگان و بازارها مطابقت دارند.
تصویر ویژه: Ascannio/Shutterstock
منبع: https://www.searchenginejournal.com/openai-ceo-responds-to-ftc-investigation-as-ai-concerns-rise/491665/