به گزارش پایروس به نقل از مهر،اخیراً بسیاری از شهروندان آمریکایی پس از ادعاهایی درمورد سوگیری و حمایت «ChatGPT» از دموکراتها و عقاید آنها احساس نگرانی میکنند. جمهوریخواهان در پاسخ به این ادعا چتبات مدافع جناح راست را وارد عرصه سیاست کردند. سازندگان مرورگر «TUSK»، چتباتی عرضه کردهاند که با دیدگاه محافظهکاران آمریکایی همسو است. این هوش مصنوعی مولد که «Gipper» نامیده میشود، عملکردی مشابه «ChatGPT» دارد، با این تفاوت که به نحوی کدگذاری شده که بتواند مانند یک محافظهکار عمل کند. تمامی این اتفاقات موید این موضوع است که هوش مصنوعی مولد که هم اکنون به منبع اطلاعات برای بسیاری تبدیل شده میتواند مواضع گروهی را ترویج کرده و موضعگیریهای خاص خود را داشته باشد. این ابزار فناورانه قابلیت این را دارد که در حوزه رسانه به جنگ عقیدههای مخالف سازندگان آن رفته و بجای منبع اطلاعات نسبتاً بیطرف، به خدمتگزار منافع سیاسی سرمایهگذاران و سازندگان آن تبدیل شود.
چندی پیش، جین ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده آمریکا (CISA)، هشدار داد که هوش مصنوعی ممکن است بهصورت توأمان، «قدرتمندترین قابلیت زمان ما» و «قویترین سلاح زمان ما» باشد.
ایسترلی معتقد است که مزایای هوش مصنوعی نیز همراه با تهدیداتی جدی است. ایسترلی تأکید کرد که هوش مصنوعی با تمام مزایایش ارزش به خطر انداختن امنیت را ندارد و باید تابع مقررات باشد.
او همچنین افزود: «درحالیکه یک نفر از قابلیتهای «ChatGPT» برای برگزاری یک مهمانی استفاده کرده فرد دیگری از قابلیتهای آن برای برنامهریزی یک حمله سایبری یا تروریستی استفاده میکند.»
یکی دیگر از نگرانیهایی که آمریکاییها در مورد هوش مصنوعی دارند، امکان تأثیرگذاری آن در انتخابات ریاستجمهوری ۲۰۲۴ این کشور است. پیت ریتکس سناتور جمهوریخواه آمریکایی هشدار داد که چین میتواند با استفاده از هوش مصنوعی، نقش عمدهای در انتخابات ۲۰۲۴ ایفا کند. او در جلسه کمیته روابط خارجی سنا در مورداستفاده از هوش مصنوعی برای ایجاد تصاویر و ویدئوها جعلی مشابه افراد هشدار داد و راهحل اینگونه بحرانهای احتمالی را آموزش مردم در حوزه رسانه و تقویت تفکر انتقادی دانست.
هوش مصنوعی اخلاق دارد؟
دانشمندانی که در سالهای اخیر، تمامی هم خود را بر توسعه هوش مصنوعی گذاشتهاند، بیشتر در پی ایجاد مخلوقی با تواناییهای فکری انسان بودهاند؛ اما مسئله این است که انسان علاوه بر قدرت تفکر، وجدان هم دارد که باعث تلازم او به اخلاق میشود. رباتهای مولدی مانند «ChatGPT» هنگام پاسخگویی بر مبنای کلاندادهها قائل به خوب و بد پاسخهای خود هستند؟ تعریفی از اخلاق دارند؟ در حال حاضر پاسخ این سؤالها، منفی است.
طراحی سیستمهای هوش مصنوعی اخلاقمدار با اصول اخلاقی مشترک بین انسانها کار بسیار دشواری خواهد بود. کارشناسان اخلاق نگرانیهایی دارند که در صورت تلاش برای اخلاقمدار کردن هوش مصنوعی مولد زبانی، نظامهای اخلاقی چه کسانی باید اعمال شوند؟ چه کسانی این تصمیم را میگیرند؟ چه کسی مسئول نظارت بر اخلاقمدار بودن هوش مصنوعی خواهد بود؟ چه کسی باید این نظامهای اخلاقی را پس از تدوین، اجرا کند؟
واقعیت این است که رقابت ژئوپلیتیک و اقتصادی، محرک اصلی توسعهدهندگانی هوش مصنوعی است، درحالیکه نگرانیهای اخلاقی در جایگاه دوم قرار میگیرد. برخی از کارشناسان معتقدند که توسعهدهندگان هوش مصنوعی و ابزارهای مرتبط با آن در حالت خوشبینانه انگیزه کمی برای طراحی نظامهای اخلاقمدار داشته و در حالت بدبینانه هیچ دغدغهای ندارند!
بعضی دیگر نیز معتقدند تا وقتی مبنای تصمیمات هوش مصنوعی غیرقابلتشخیص باشد نمیتوان مضرات هوش مصنوعی را شناسایی کرده و راهحل مناسبی برای آن یافت. باتوجهبه اینکه پایگاههای دادههای هوش مصنوعی در سیستم فعلی موجود است و مشکلات اخلاقی بسیار نظام حال حاضر، نمیتوان انتظار معجزه و اهمیتدادن به اخلاق از این هوش مصنوعی داشت.
هوش مصنوعی مانند تمامی ابزارها میتواند برای «خوب یا بد» استفاده شود و بشر و سازندگان در نهایت کارکرد اصلی آن را مشخص میکنند. در نهایت هوش مصنوعی امتدادی از خودمان خواهد بود و تا جایی که بتوانیم و بخواهیم جامعهای اخلاقیتر بسازیم هوش مصنوعی اخلاقیتری خواهیم داشت در غیر این صورت هوش مصنوعی پیامدهای بیاخلاقی بشر را با ذرهبین قدرتمند خود چند برابر کرده و سر راه انسان قرار میدهد.
دستکاری ذهن انسان و نابودی دموکراسی
کارشناسان و محققان سر این مسئله که هوش مصنوعی نحوه کار و زندگی ما را تغییر خواهد داد اجماع دارند. همه تغییرات میزانی از ریسک را دارد، اما مقدار و طیف این ریسک بسیار مهم است. برخی معتقدند هوش مصنوعی میتواند تا جایی پیش برود که ذهن انسان را دستکاری کند.
بدبینانهترین شکل ماجرا بهدستآوردن قدرت و نابودی جهان است؛ اما حالت خوشبینانه آن ایجاد تصاویر نادرست، ویدئوهای نادرست است که در نهایت منجر به نابودی اعتماد میشود.
انسان در مواردی نمیتواند مطمئن باشد فلان سیاستمدار واقعاً این حرف را زده یا صدا و تصویر و متن و ویدئو ساخته هوش مصنوعی است. جسیکا سیسیل رئیس سابق دفتر بیبیسی و مؤسس «Trusted News Initiative» که با اطلاعات نادرست مبارزه میکند در مصاحبه با پرایم تایم گفت: «دموکراسی متکی بر این است کهرای دهندگان بتوانند به اطلاعات واقعی دسترسی داشته و طبق بررسی و تحلیل ذهن خود آن را باور کرده یا نکنند و سپس گفتگویی مشترک پیرامون حقایق مورد توافق داشته باشند.» بهعبارتدیگر هوش مصنوعی با ایجاد اطلاعات نادرست اعتماد مردم را از بین میبرد و بدون اینکه افراد بدانند اطلاعاتی واقعی است یا نه نمیتوانند بر اساس آن به فردی که واقعاً مدنظر آنهاست رأی دهند.
خالق هوش مصنوعی هشدار میدهد!
جفری هینتون که اخیراً از سمت خود بهعنوان معاون مهندسی گوگل استعفا داد تا زنگ خطرات هوش مصنوعی را به صدا در آورد، در مصاحبهای که اخیراً از او منتشر شد هشدار داد که جهان باید راهی برای کنترل این فناوری درحالتوسعه پیدا کند!
«پدرخوانده هوش مصنوعی»، در گفتههای خود ضمن تأکید بر تأثیرات مثبت هوش مصنوعی در پزشکی، علم مواد، پیشبینی زلزله و سیل و…، معتقد است که تمام این فواید اگر باعث پیشیگرفتن هوش مصنوعی بر بشر شود، نهتنها بیفایده که ویرانگر خواهد بود.
هینتون همچنین معتقد است بسیاری از همکاران وی که از باهوشترند مانند او نگران هستند. هینتون خاطرنشان کرد که باتوجه به مدلهایی مانند «Chat GPT»، هوش مصنوعی ممکن است کارها را کارآمدتر از مغز انسان انجام دهد. او معتقد است که نمیتوان مطمئن بود که اهداف هوش مصنوعی به نفع انسان و هم راستا با منافع او باشد.
او همچنین تأکید کرد که «ممکن است هیچ راهی برای جلوگیری از یک پایان بد نباشد؛ اما واضح است که انسانهای باهوش و متخصص قادرند راهی برای مقابله با این چالش بیابند؛ اما این اتفاق باید قبل از اینکه هوش مصنوعی خیلی باهوش شود بیفتد!»