هوش مصنوعی برای آینده بشریت چه خطراتی میتواند داشته باشد؟
هوش مصنوعی باوجود تمام قابلیتهایی که دارد، با پیشرفت خود هشدارهای نگرانکنندهای نیز به بشریت داد. در این مطلب قصد داریم به چند مورد از مهمترین خطرات هوش مصنوعی برای بشر اشاره کنیم.
مهمترین خطرات هوش مصنوعی
از جایگزینی مشاغل مختلف گرفته تا توسعه سلاحهای مستقلی که بدون نظارت انسان عمل میکنند، فهرست خطرات هوش مصنوعی بسیار بلندبالاست که در ادامه با چند مورد آشنا خواهیم شد.
1. تهدیدات امنیت سایبری
هکرها میتوانند از هوش مصنوعی در حملات سایبری سوءاستفاده کنند. در این روشها، از ابزارهای هوش مصنوعی برای شبیهسازی صدا، تولید هویتهای جعلی و ساخت ایمیلهای فیشینگ استفاده میشود. تمام این موارد به قصد کلاهبرداری، هک، سرقت هویت فرد یا بهخطرانداختن حریم خصوصی و امنیت آنها انجام میشود.
2. جایگزینی نیروی کار انسانی
نگرانی بزرگ دیگری که برای هوش مصنوعی وجود دارد، پذیرفتن این فناوری در صنایعی مانند بازاریابی، تولید و مراقبتهای بهداشتی است. برخی کارشناسان میگویند تا سال 2030، 30 درصد وظایفی که هماکنون در اقتصاد ایالات متحده انجام میشود، خودکار خواهند شد؛ از هوش مصنوعی برای انجام آنها کمک گرفته میشود.
این اتفاق موقعیتهای شغلی انسانها را از بین میبرد و همانطور که گلدمن ساکس میگوید، 300 میلیون شغل تماموقت به خاطر اتوماسیون هوش مصنوعی از بین خواهد رفت. البته پیشرفت هوش مصنوعی باعث میشود استخدام افراد در نقشهایی مانند متخصصان یادگیری ماشین، مهندسان رباتیک و متخصصان تحول دیجیتال افزایش پیدا کند.
«کریس مسینا»، استراتژیست حوزه فناوری، نیز میگوید حوزههایی مانند قانون و حسابداری درحالحاضر آمادهاند که هوش مصنوعی به آنها مسلط شوند.
3. گسترش اطلاعات نادرست با هوش مصنوعی
علاوهبر حملات سایبری، هکرها با سوءاستفاده از هوش مصنوعی میتوانند اطلاعات نادرست منتشر کنند.
یکی دیگر از خطرات هوش مصنوعی مربوط به تولید ویدیو و تصاویر دیپفیک میشود. در دنیای امروزی، بسیاری از سیاستمداران برای بیان دیدگاههای خود از پلتفرمهای آنلاین مانند ایکس یا بلواسکای استفاده میکنند. درعینحال، رسانههای آنلاین مملو از تصاویر ویدیوهای دیپفیک ساخته هوش مصنوعی هستند که در بسیاری از موارد چهره شخصیتی واقعی برای بیان موضوع موردنظر خود شبیهسازی میکنند.
در واقع عوامل مخرب دنیای اینترنت با کمک این دیپفیکها میتوانند بهراحتی اطلاعاتی نادرست را از زبان افراد بزرگ جهان، مانند ایلان ماسک یا دونالد ترامپ، به اشتراک بگذارند. همچنین در برخی موارد دیپفیکهای ساختهشده به اندازهای واقعی هستند که تقریباً تشخیص اخبار موثق یا اشتباه را غیرممکن میکنند.
4. نظارت اجتماعی و ترویج تعصبات فکری با هوش مصنوعی
هوش مصنوعی برای حریم خصوصی و امنیت انسانها نیز میتواند خطراتی را داشته باشد. یکی از نمونههای بارز سوءاستفاده از هوش مصنوعی به فناوری تشخیص چهره چین مربوط میشود که در ادارات، مدارس و مکانهای عمومی دیگری به کار گرفته شده است.
باتوجهبه هشدار کارشناسان، دولت چین با این سیستم علاوهبر ردیابی حرکات فرد ممکن است برای نظارت بر فعالیت، روابط و دیدگاههای سیاسی او نیز اطلاعات موردنیازش را جمع کند.
نمونه دیگر این فناوری در ادارات پلیس ایالات متحده مستقر است که از الگوریتمهای خاصی برای پیشبینی محل وقوع جنایات استفاده میکند. همچنین ممکن است برخی الگوریتمها در این سیستمها دچار سوگیری شوند.
هوش مصنوعی به شکلهای مختلفی ممکن است دچار سوگیری فکری شود؛ به بیان سادهتر، در این شرایط ممکن است هوش مصنوعی دادههایش را براساس برخی تعصبات نژادی و مذهبی بیان کند.
5. توسعه سلاحهای خودکار مبتنیبر هوش مصنوعی
پیشرفتهای حوزه تکنولوژی اغلب وارد صنعت جنگ نیز میشود. این برای هوش مصنوعی نیز صدق میکند. توسعه سلاحهای خودمختاری که از فناوری هوش مصنوعی پشتیبانی میکنند، یکی از خطرات این فناوری است و کشورهای سراسر جهان برای پیشتازی در آن رقابت میکنند.
شاید توسعه چنین سلاحهایی از مدتها قبل در داستانهای علمی-تخیلی پیشبینی شده بود اما زمانی همهچیز خطرناک به نظر میرسد که در آینده آنها به دست افراد اشتباه بیفتند. با پیشرفت دنیای فناوری، هکرها نیز به انواع مختلفی از حملات سایبری تسلط پیدا کردهاند که این امر سیستمهای هوش مصنوعی آینده را نیز بهطور بالقوه آسیبپذیر میکند.
6. توسعه هوش مصنوعی خودآگاه و غیرقابلکنترل
همیشه این نگرانی وجود داشته که هوش مصنوعی بهقدری پیشرفت کند که از انسانها نیز باهوشتر شود. طبق پیشبینی کارشناسان، ممکن است در این شرایط فناوریهای هوش مصنوعی کاملاً خودمختار ساخته شوند که از هویت خود نیز آگاهاند.
البته توسعه این فناوری احتمالاً به آیندهای بسیار دور مربوط میشود اما از بزرگترین خطرات هوش مصنوعی است.
7. آسیبهای زیستمحیطی
آموزش مدلهای هوش مصنوعی و انجام محاسبات پیچیده توسط آنها به انرژی بسیار زیادی نیاز دارد و میزان انتشار کربن این فرایند بسیار زیاد است؛ بنابراین اجرای مدلهای پیچیده به افزایش انتشار کربن کمک میکند و میتواند به محیطزیست آسیب برساند.
مصرف آب دیگر نگرانی توسعه هوش مصنوعی است. بسیاری از سیستمهای هوش مصنوعی روی سرورهایی اجرا میشوند که گرمای زیادی تولید میکنند و خنکسازی آنها به آب زیادی نیاز دارد. طبق پژوهشی، آموزش مدلهای GPT-3 در مراکز داده مایکروسافت به 5 میلیون و ۴۰۰ هزار لیتر آب نیاز دارد و برای پردازش 10 تا 50 درخواست تقریباً 500 میلیلیتر آب مصرف میشود.
تلاش جهانی برای کاهش خطرات هوش مصنوعی
خطرات هوش مصنوعی بسیار نگرانکننده به نظر میرسند اما این فناوری همچنان مزایای بیشماری دارد که بسیاری از کارهای روزمره را سادهتر میکنند. دولتهای سراسر جهان همزمان با پیشرفت هوش مصنوعی اقداماتی انجام میدهند تا خطرات ناشی از آن را کاهش دهند.
تنظیم مقررات هوش مصنوعی یکی از این اقدامات است که هماکنون دهها کشور جهان روی آن تمرکز کردهاند و ایالات متحده همراه اتحادیه اروپا مشغول ایجاد مقررات واضحتری برای مدیریت پیچیدگیها و کاهش خطرات هوش مصنوعی هستند.
ثبت دیدگاه
آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی علامت گذاری شده اند *نظرات (0)
هیچ نظری ثبت نشده است.