موضوع نظارت و مقررات هوش مصنوعی (AI) در جلسه استماع امروز کمیته قضایی مجلس مطرح شد.
سیاست گذاران و کارشناسان هوش مصنوعی، از جمله سام آلتمن، خالق ChatGPT، و مدیر عامل OpenAI، در مورد امکانات و چالش های این فناوری بحث کردند.
آلتمن به پتانسیل هوش مصنوعی برای پیشرفت علمی، از درمان سرطان گرفته تا مدلسازی تغییرات آب و هوایی اشاره کرد، اما در مورد آسیبهای احتمالی از جمله اطلاعات نادرست، تبعیض در مسکن، آزار و اذیت و کلاهبرداری هشدار داد.
وعده های هوش مصنوعی بسیار زیاد است و خطرات آن به همان اندازه قابل توجه است.
بحثهایی مانند آنچه امروز برگزار میشود برای یافتن رویکرد درست برای مقررات و اطمینان از استفاده مسئولانه از هوش مصنوعی ضروری است.
در این مقاله به نکات برجسته این جلسه می پردازیم. در پایان، پیچیدگیهای نظارت بر هوش مصنوعی و سؤالاتی را که سیاستگذاران و رهبران صنعت با آن دستوپنجه نرم میکنند، بهتر درک خواهید کرد.
تنظیم تعادل و مسئولیت
آلتمن از مداخله نظارتی برای کاهش خطرات مدلهای هوش مصنوعی قویتر حمایت میکند.
با این حال، او تأکید می کند که شرکت ها باید بدون توجه به آنچه کنگره انجام می دهد، مسئولیت داشته باشند.
او یک رویکرد تنظیم دقیق برای هوش مصنوعی پیشنهاد کرد و استدلال کرد که حفاظت و پاسخگویی بار نیست، بلکه پایههایی برای نوآوری و حفظ اعتماد عمومی است.
آلتمن نگران پتانسیل هوش مصنوعی برای دستکاری رفتار رأی دهندگان، به ویژه در انتخابات آینده است.
او به طور کامل از مقررات برای اطمینان از شفافیت در مورد محتوای تولید شده توسط هوش مصنوعی حمایت می کند و مایل است دستورالعمل های افشا را اجرا کند.
غلبه بر چالش های مقررات
آلتمن استدلال می کند که مقررات نباید نوآوری یا رشد کسب و کار کوچک را خفه کند.
او معتقد است که فشارهای نظارتی می تواند صنعت آمریکا را کند کند و به طور بالقوه به رقبای مانند چین اجازه دهد سریعتر پیشرفت کنند.
در حالی که آلتمن به نفع شرکتهای فناوری بزرگتر است که با فشار نظارتی مواجه هستند، اما مقررات نباید مانع فعالیتهای کوچکتر یا تلاشهای منبع باز شود.
آلتمن در این جلسه خاطرنشان کرد:
من فکر می کنم که آمریکا باید به رهبری خود ادامه دهد… و فکر می کنم این می تواند با فشار نظارتی اتفاق بیفتد. این باید بر عهده ما باشد، باید در گوگل باشد، باید بر روی مجموعه کوچک دیگری از افراد پیشرو باشد. ما نمیخواهیم استارتآپهای کوچکتر را کند کنیم، نمیخواهیم تلاشهای منبع باز را کند کنیم.»
فراخوان آژانس اختصاصی
با توجه به پیچیدگی و تکامل سریع هوش مصنوعی، آلتمن از تشکیل یک سازمان در سطح کابینه در ایالات متحده برای رسیدگی به چالشهای ناشی از هوش مصنوعی دفاع کرد.
آلتمن توضیح داد: “ما به تخصص فنی زیادی نیاز داریم، ما به هماهنگی زیادی برای این تلاش ها نیاز داریم… هوش مصنوعی بخش بزرگی از آینده ما خواهد بود و بسیار پیچیده و با سرعت حرکت می کند.”
در همین حال، قانونگذاران کمیته قضایی، از جمله سناتور لری هوگان، نسبت به عواقب پیشی گرفتن فناوری از مقررات ابراز نگرانی کردند.
سناتور هوگان توجه خود را به مواردی از بهره برداری از داده های شخصی، اشاعه اطلاعات نادرست و تداوم نابرابری های اجتماعی به دلیل هوش مصنوعی جلب کرد.
اعضای کمیته قضایی نیاز خود را برای توسعه سریع دانش هوش مصنوعی و پیامدهای آن اذعان کردند.
آنها اعتراف می کنند که پنجره ای را برای ایجاد مقررات و مدیریت هوش مصنوعی در اشکال فعلی و آینده آن از دست داده اند و به مواردی اشاره می کنند که در گذشته فرصت هایی را برای تنظیم رسانه های اجتماعی و اینترنت از دست داده اند.
یک مسیر پیچیده رو به جلو
مسیر پیش رو برای نظارت بر هوش مصنوعی جذاب و نگران کننده است.
در حالی که اجماع در مورد نیاز به نظارت واضح است، ایجاد تعادل مناسب همچنان چالش برانگیز است.
جلسه سهشنبه، لحظهای مهم برای سیاستگذارانی است که وظیفه دارند خود را آموزش دهند تا در مورد موضوعی با پیامدهای مهمی برای آینده جامعه قانونگذاری کنند.
گفتوگو بین سیاستگذاران و مدیران عامل میتواند به ما کمک کند که چالشها و فرصتهای هوش مصنوعی را به صورت ایمن، اخلاقی و فراگیر مرور کنیم.
همانطور که جهان به جلو می رود، بحث های مهمی مانند این ادامه می یابد.
منبع: آسوشیتدپرس
تصویر ویژه ایجاد شده توسط نویسنده با استفاده از Midjourney.
منبع: https://www.searchenginejournal.com/sam-altman-on-ai-oversight-balancing-risks-advancements/487098/