دوره ای که به جرات میتونه ورق زندگیتو عوض کنه!


» آیا هوش مصنوعی «بالقوه ترسناک» در راه است؟

آیا هوش مصنوعی «بالقوه ترسناک» در راه است؟

سایه ترسناک هوش مصنوعی بر آینده بشریت


آیا هوش مصنوعی برای جامعه مفید خواهد بود یا ابزارهای "بالقوه ترسناک" وجود خواهد داشت که می تواند برای شیوه زندگی ما مختل کننده یا حتی مخاطره آمیز باشد؟  


چیزی که کارشناسان را در شب بیدار نگه می دارد

مدیر عامل OpenAI در آخر هفته گفت که جهان ممکن است «از ابزارهای هوش مصنوعی بالقوه ترسناک» (AI) دور نباشد.

سام آلتمن، که شرکت او ChatGPT بسیار محبوب را ایجاد کرد، پس از انفجار در منافع عمومی در ابزارهای هوش مصنوعی مولد، افکار خود را در مورد وضعیت فعلی و آینده هوش مصنوعی در یک تاپیک توییتری بیان کرد.

با این حال، برخی از کارشناسان گفته‌اند که به جای استفاده از برنامه‌های هوش مصنوعی «بالقوه ترسناک»، در حال حاضر به لطف استفاده از هوش مصنوعی در موقعیت‌های حساسی که تأثیر واقعی بر فرصت‌های افراد دارد، در «حالتی بدحال» زندگی می‌کنیم. .


MacGPT: هر آنچه که باید بدانید - نکات حرفه ای هوش مصنوعی مطلب مرتبط MacGPT: هر آنچه که باید بدانید - نکات حرفه ای هوش مصنوعی

آلتمن به دنبال ادغام ChatGPT در موتور جستجوی بینگ مایکروسافت، که تعدادی از کارشناسان فناوری و روزنامه نگاران آن را آزمایش کردند - با نتایج وحشتناکی صحبت کرد.

دیگران تهدید به خشونت و باج خواهی ناشی از چت بات را گزارش کرده اند که هنوز در مرحله آزمایشی خود است.

آلتمن در تاپیک توییتری خود گفت: «انطباق با دنیایی که عمیقاً با ابزارهای هوش مصنوعی ادغام شده است احتمالاً به سرعت اتفاق می افتد»، در حالی که اعتراف کرد که ابزارها «هنوز تا حدودی خراب هستند».


او گفت: «قانون‌گذاری حیاتی خواهد بود و به زمان نیاز دارد تا مشخص شود،» و افزود: «اگرچه ابزارهای نسل فعلی هوش مصنوعی خیلی ترسناک نیستند، من فکر می‌کنم که ما به طور بالقوه چندان با ابزارهای بالقوه ترسناک فاصله نداریم.»


بنابراین، کارشناسان اخلاق هوش مصنوعی - افرادی که به آینده فکر می کنند و تلاش می کنند ادغام آینده هوش مصنوعی در زندگی روزمره ما را شکل دهند - در مورد این چه فکر می کنند؟


"حال دیستوپیک"

در حالی که آلتمن ادعا می کند "ابزارهای هوش مصنوعی نسل فعلی خیلی ترسناک نیستند"، برخی از کارشناسان با این نظر مخالف هستند.

سارا مایرز وست، مدیر عامل مؤسسه AI Now، گفت که «از بسیاری جهات، این همان جایی است که ما هستیم» و سیستم‌های هوش مصنوعی در حال حاضر برای تشدید «الگوهای دیرینه نابرابری» استفاده می‌شوند.

AI Now یک موسسه تحقیقاتی آمریکایی است که پیامدهای اجتماعی هوش مصنوعی را مطالعه می کند و آنها را در خط مقدم تفکر پیرامون چالش هایی که هوش مصنوعی برای جامعه ایجاد می کند قرار می دهد.


"آنها در فرآیندهای بسیار حساس تصمیم گیری استفاده می شوند، اغلب بدون نظارت یا پاسخگویی بسیار مختصر و کوتاه. بنابراین من فکر می کنم که ما در حال حاضر شاهد آشکار شدن آن در اطراف خود هستیم. و این دقیقاً همان چیزی است که انگیزه نگاه به رویکردهای سیاستی برای شکل دادن به جهتی که می گیرد.

این فرآیندهای حساس تصمیم گیری شامل فرآیندهای استخدام و آموزش است.


یکی از حوزه‌ها، فقط به عنوان نمونه‌ای از بسیاری، استفاده از احساسات یا تشخیص تأثیر است. که اساساً این ادعاست که می‌توانید حالات عاطفی درونی یا حالات ذهنی افراد را از ویژگی‌های صورت آنها استنباط کنید، و سیستم‌های هوش مصنوعی خاصی وجود دارند که می‌توانند حالات عاطفی افراد و حتی ویژگی های شخصیتی آنها را بخوانید.


من فکر می‌کنم پس از آن، ما در حال تسلیم این واقعیت هستیم که تعداد انگشت شماری از شرکت‌های فناوری، اساساً کنترل و قدرت فوق‌العاده و غیرقابل توجیهی بر جوامع و زندگی مردم خواهند داشت.

امبا کاک 

مدیر اجرایی، هوش مصنوعی در حال حاضر


این سیستم‌های هوش مصنوعی مبتنی بر پایه‌های علمی هستند که «در بهترین حالت متزلزل هستند» و «در واقع دسترسی افراد به فرصت‌ها را در زمان واقعی شکل می‌دهند».

بنابراین، نیاز فوری به محدود کردن این سیستم ها وجود دارد


چند سال پیش نمی‌توانستیم بسیاری از قابلیت‌هایی را که هوش مصنوعی در حال حاضر در زندگی شخصی ما و فعالیت‌های بسیاری از شرکت‌ها پشتیبانی می‌کند، تصور کنیم.

فرانچسکا روسی 

همکار و رهبر جهانی اخلاق هوش مصنوعی، IBM


خطر بالا می تواند شامل استفاده از هوش مصنوعی برای تشخیص چهره، مسائل حقوقی یا مرتب سازی رزومه ها در طول فرآیندهای استخدامی باشد. اینها می توانند باعث آسیب یا محدودیت فرصت ها شوند، بنابراین با استانداردهای نظارتی بالاتری روبرو خواهند شد.

به گفته کمیسیون اروپا، هوش مصنوعی یک خطر غیرقابل قبول تلقی می شود - به عبارت دیگر، سیستم هایی که تهدیدی آشکار برای مردم هستند - "ممنوع خواهند شد."


تیری برتون، کمیسر اروپا برای بازار داخلی، اخیراً گفت که افزایش ناگهانی محبوبیت برنامه‌هایی مانند ChatGPT و خطرات مرتبط با آن بر نیاز فوری به ایجاد قوانین تاکید دارد.


آیا ما از فناوری به گونه ای استفاده می کنیم که ایمن، عادلانه و منصفانه باشد؟ آیا به شکوفایی شهروندان، ساکنان و کارمندان کمک می کنیم؟

جوانا برایسون، استاد اخلاق و فناوری



مجله ارم بلاگ

کپی رایت  Canva


فرم ارسال نظر


مطالب پیشنهادی از سراسر وب




  گردشگری ارم بلاگ   |   فروش تجهیزات ویپ   |   تهران وکیل   |   مشاور ایرانی در لندن  


آخرین مطالب این وبلاگ

آخرین مطالب مجله


اعداد فرشته در عشق و روابط عاشقانه! ✓ کانال یوتیوب اعداد فرشته در عشق و روابط عاشقانه! ✓ کانال یوتیوب مشاهده