» آیا هوش مصنوعی «بالقوه ترسناک» در راه است؟

سایه ترسناک هوش مصنوعی بر آینده بشریت
آیا هوش مصنوعی برای جامعه مفید خواهد بود یا ابزارهای "بالقوه ترسناک" وجود خواهد داشت که می تواند برای شیوه زندگی ما مختل کننده یا حتی مخاطره آمیز باشد؟
چیزی که کارشناسان را در شب بیدار نگه می دارد
مدیر عامل OpenAI در آخر هفته گفت که جهان ممکن است «از ابزارهای هوش مصنوعی بالقوه ترسناک» (AI) دور نباشد.
سام آلتمن، که شرکت او ChatGPT بسیار محبوب را ایجاد کرد، پس از انفجار در منافع عمومی در ابزارهای هوش مصنوعی مولد، افکار خود را در مورد وضعیت فعلی و آینده هوش مصنوعی در یک تاپیک توییتری بیان کرد.
با این حال، برخی از کارشناسان گفتهاند که به جای استفاده از برنامههای هوش مصنوعی «بالقوه ترسناک»، در حال حاضر به لطف استفاده از هوش مصنوعی در موقعیتهای حساسی که تأثیر واقعی بر فرصتهای افراد دارد، در «حالتی بدحال» زندگی میکنیم. .
آلتمن به دنبال ادغام ChatGPT در موتور جستجوی بینگ مایکروسافت، که تعدادی از کارشناسان فناوری و روزنامه نگاران آن را آزمایش کردند - با نتایج وحشتناکی صحبت کرد.
دیگران تهدید به خشونت و باج خواهی ناشی از چت بات را گزارش کرده اند که هنوز در مرحله آزمایشی خود است.
آلتمن در تاپیک توییتری خود گفت: «انطباق با دنیایی که عمیقاً با ابزارهای هوش مصنوعی ادغام شده است احتمالاً به سرعت اتفاق می افتد»، در حالی که اعتراف کرد که ابزارها «هنوز تا حدودی خراب هستند».
او گفت: «قانونگذاری حیاتی خواهد بود و به زمان نیاز دارد تا مشخص شود،» و افزود: «اگرچه ابزارهای نسل فعلی هوش مصنوعی خیلی ترسناک نیستند، من فکر میکنم که ما به طور بالقوه چندان با ابزارهای بالقوه ترسناک فاصله نداریم.»
بنابراین، کارشناسان اخلاق هوش مصنوعی - افرادی که به آینده فکر می کنند و تلاش می کنند ادغام آینده هوش مصنوعی در زندگی روزمره ما را شکل دهند - در مورد این چه فکر می کنند؟
"حال دیستوپیک"
در حالی که آلتمن ادعا می کند "ابزارهای هوش مصنوعی نسل فعلی خیلی ترسناک نیستند"، برخی از کارشناسان با این نظر مخالف هستند.
سارا مایرز وست، مدیر عامل مؤسسه AI Now، گفت که «از بسیاری جهات، این همان جایی است که ما هستیم» و سیستمهای هوش مصنوعی در حال حاضر برای تشدید «الگوهای دیرینه نابرابری» استفاده میشوند.
AI Now یک موسسه تحقیقاتی آمریکایی است که پیامدهای اجتماعی هوش مصنوعی را مطالعه می کند و آنها را در خط مقدم تفکر پیرامون چالش هایی که هوش مصنوعی برای جامعه ایجاد می کند قرار می دهد.
"آنها در فرآیندهای بسیار حساس تصمیم گیری استفاده می شوند، اغلب بدون نظارت یا پاسخگویی بسیار مختصر و کوتاه. بنابراین من فکر می کنم که ما در حال حاضر شاهد آشکار شدن آن در اطراف خود هستیم. و این دقیقاً همان چیزی است که انگیزه نگاه به رویکردهای سیاستی برای شکل دادن به جهتی که می گیرد.
این فرآیندهای حساس تصمیم گیری شامل فرآیندهای استخدام و آموزش است.
یکی از حوزهها، فقط به عنوان نمونهای از بسیاری، استفاده از احساسات یا تشخیص تأثیر است. که اساساً این ادعاست که میتوانید حالات عاطفی درونی یا حالات ذهنی افراد را از ویژگیهای صورت آنها استنباط کنید، و سیستمهای هوش مصنوعی خاصی وجود دارند که میتوانند حالات عاطفی افراد و حتی ویژگی های شخصیتی آنها را بخوانید.
من فکر میکنم پس از آن، ما در حال تسلیم این واقعیت هستیم که تعداد انگشت شماری از شرکتهای فناوری، اساساً کنترل و قدرت فوقالعاده و غیرقابل توجیهی بر جوامع و زندگی مردم خواهند داشت.
امبا کاک
مدیر اجرایی، هوش مصنوعی در حال حاضر
این سیستمهای هوش مصنوعی مبتنی بر پایههای علمی هستند که «در بهترین حالت متزلزل هستند» و «در واقع دسترسی افراد به فرصتها را در زمان واقعی شکل میدهند».
بنابراین، نیاز فوری به محدود کردن این سیستم ها وجود دارد
چند سال پیش نمیتوانستیم بسیاری از قابلیتهایی را که هوش مصنوعی در حال حاضر در زندگی شخصی ما و فعالیتهای بسیاری از شرکتها پشتیبانی میکند، تصور کنیم.
فرانچسکا روسی
همکار و رهبر جهانی اخلاق هوش مصنوعی، IBM
خطر بالا می تواند شامل استفاده از هوش مصنوعی برای تشخیص چهره، مسائل حقوقی یا مرتب سازی رزومه ها در طول فرآیندهای استخدامی باشد. اینها می توانند باعث آسیب یا محدودیت فرصت ها شوند، بنابراین با استانداردهای نظارتی بالاتری روبرو خواهند شد.
به گفته کمیسیون اروپا، هوش مصنوعی یک خطر غیرقابل قبول تلقی می شود - به عبارت دیگر، سیستم هایی که تهدیدی آشکار برای مردم هستند - "ممنوع خواهند شد."
تیری برتون، کمیسر اروپا برای بازار داخلی، اخیراً گفت که افزایش ناگهانی محبوبیت برنامههایی مانند ChatGPT و خطرات مرتبط با آن بر نیاز فوری به ایجاد قوانین تاکید دارد.
آیا ما از فناوری به گونه ای استفاده می کنیم که ایمن، عادلانه و منصفانه باشد؟ آیا به شکوفایی شهروندان، ساکنان و کارمندان کمک می کنیم؟
جوانا برایسون، استاد اخلاق و فناوری
مجله ارم بلاگ
کپی رایت Canva