معمولاً کارشناسان هوش مصنوعی تنها دو نظریه درباره آن را مطرح میکنند؛ این فناوری در آینده میتواند بهطور چشمگیری بهبود یابد و یا منجر به نابودی بشریت شود. به همین دلیل، هفته گذشته پارلمان اروپا بحث قانونگذاری درباره هوش مصنوعی را مطرح کرد. اما چگونه میتوان امنیت هوش مصنوعی را تأمین کرد؟
چالشهای پیش روی مسیر قانونگذاری هوش مصنوعی
این کار به اندازهای که فکر میکنیم، ساده نیست و دارای چالشهای زیادی است. در ادامه به بررسی ۵ چالش موجود در راه تضمین امنیت و قانونگذاری درباره هوش مصنوعی خواهیم پرداخت.
توافق نظر درباره ماهیت هوش مصنوعی
دو سال به طول انجامید تا نمایندگان پارلمان اروپا درباره تعریف یک سیستم هوش مصنوعی به توافق برسند. با تعریفی که این پارلمان ارائه داده، AI نرمافزاری است که میتواند برای یک مجموعه اهدافی که توسط انسان تعریف شدهاند، بهکار گرفته شود؛ اهدافی مثل تولید محتوا، پیشبینیهای مختلف و ارائه پیشنهادها یا تصمیماتی که قادر به تحت تأثیر قرار دادن محیطی هستند که با آن در تعامل هستند.
دستیابی به توافق جهانی
«سانا خراقانی» (Sana Kharaghani)، سرپرست سابق سازمان هوش مصنوعی انگلستان، به شدت تأکید کرده است که مرزها هیچ محدودیتی برای توسعه این فناوری ایجاد نمیکنند. درباره این موضوع، ایشان آمده است:
«برای توسعه هوش مصنوعی، نیازی به همکاری بینالمللی نیست؛ میدانم که تحقق چنین امری دشوار است. هوش مصنوعی مسئلهای محلی نیست و این فناوری تنها به یک کشور محدود نمیشود.»
در کل، هیچ برنامه جهانی برای قانونگذاری در حوزه هوش مصنوعی به سبک قانونگذاریهای سازمان ملل وجود ندارد. مسئولین کشورهای مختلف از روشهای مختلفی برای قانونگذاری هوش مصنوعی استفاده کردهاند. تعدادی از این روشها عبارتند از:
– پیشنهادات مطرح شده از سوی پارلمان اروپا، سختگیرانهترین حکمها در زمینه قانونگذاری هوش مصنوعی هستند. این پیشنهادات شامل ردهبندی محصولات هوش مصنوعی بر اساس کاربرد و تأثیرگذاری آنها هستند؛ به عنوان مثال، قوانین مرتبط با یک ابزار فیلتر کننده ایمیلهای اسپم در مقایسه با قوانین مربوط به ابزارهای تشخیص سرطان، سختگیری کمتری دارند.
– در انگلستان، قانونگذاری هوش مصنوعی به مراجع قانونگذاری کنونی واگذار شده است؛ به عنوان مثال، افرادی که مدعی هستند این فناوری در مورد آنها تبعیض قائل شده است، به کمیسیون برابری این کشور ارجاع داده میشوند.
– در آمریکا، تنها یک سری قوانین تعیین شده توسط خود رهبران این حوزه وجود دارد که قانونگذاران آنها را در یک جلسه کمیته هوش مصنوعی پذیرفتهاند. در این جلسه، قانونگذاران به سخنان چهرههای سرشناس این صنعت در مورد این موضوع که آیا هوش مصنوعی میتواند مشاغل انسانی را نابود کند یا نه، گوش داده اند .
-چین هم در تلاش است الگوریتم های مورد استفاده در هوش مصنوعی را به کاربران اطلاع دهد .
بیشتر بخوانید : هوش مصنوعی چیست ؟ |
کسب اطمینان از وجود اعتماد عمومی
“جین مارک لیکلرک”، رهبر امور دولتی و قوانین اتحادیه اروپا در شرکت IBM، تأکید میکند که در صورتی که مردم به هوش مصنوعی اعتماد کنند، از آن به خوبی استفاده خواهند کرد.
هوش مصنوعی با استفاده از تکنولوژیهای مختلف، تغییراتی چشمگیر در زندگی مردم به وجود میآورد. در حال حاضر، این فناوری باعث ایجاد تغییرات اساسی در زندگی مردم شده است که شامل موارد زیر میشوند:
– کمک به شناسایی آنتیبیوتیکها
– احیای توانایی راهرفتن در افراد معلول
– ارائه راهحلهایی برای مشکلاتی نظیر تغییرات اقلیمی و شیوع ویروسها
اما به چه اندازه مردم به این فناوری اعتماد دارند، به خصوص در مواردی مانند بررسی تقاضاهای شغلی و پیشبینی احتمال ارتکاب جرم توسط یک نفر؟
پارلمان اروپا خواستار اطلاعرسانی عمومی در مورد خطرات استفاده از هر یک از محصولات هوش مصنوعی شده است. شرکتهایی که این قانون را نقض میکنند، ممکن است با جریمهای بیش از ۳۰ میلیون یورو یا ۶ درصد از گردش مالی سالانه جهانی مواجه شوند.
اما آیا توسعهدهندگان این محصولات، قادر به پیشبینی یا کنترل نحوه استفاده از آنها هستند؟
تصمیمگیری در مورد افراد واجد شرایط قانونگذاری
تا کنون، سیاستهای مربوط به هوش مصنوعی توسط افراد فعال در این حوزه تعیین شده است. بر اساس گفته “سم آلتمن”، مدیرعامل OpenAI که شرکت ChatGPT را تولید میکند، مدیران شرکتهای بزرگ هوش مصنوعی با تأکید بر ضرورت وجود قوانین دولتی جهت کاهش خطرات استفاده از این فناوری، موافق هستند.
اما آیا در صورتی که این اشخاص در فرایند قانونگذاری به طور چشمگیری درگیر شوند، منافع خود را در برابر حفاظت مردم از خطرات هوش مصنوعی در اولویت قرار میدهند؟
مطمئنیم که چنین اتفاقی نخواهد افتاد و این افراد قصد دارند تا حد امکان در یک راستایی با قانونگذاران همکاری کنند تا قوانینی برای حوزه هوش مصنوعی تدوین شود.
با این حال، “لین فاکس”، بنیانگذار سایت خردهفروشی Lastminute.com، باور دارد که باید علاوه بر نظرات صاحبان شرکتهای فعال در این حوزه، به نظرات سایر افراد نیز توجه کرد. او در این مورد گفته است:
“ما باید جامعه مدنی، آموزشی و افرادی را که تحت تأثیر مدلهای هوش مصنوعی و تحولات ناشی از استفاده از آنها هستند، نیز درگیر کنیم.”
بیشتر بخوانید :چگونه هوش مصنوعی قابلیتهای فناوری ۵G را بهبود میبخشد؟ |
لزوم اقدام سریع
مایکروسافت با سرمایهگذاری میلیاردها دلاری در ChatGPT، میخواهد از انجام کارهای تکراری توسط انسانها جلوگیری کند. ChatGPT قادر به تولید نثر و پاسخهای متنی شبیه به متونی است که انسانها ارائه میدهند؛ اما آقای آلتمن میگوید که این محصول یک ابزار است و نه یک موجود.
چتباتها به نظر میرسند قادر به افزایش خلاقیت نیروهای انسانی هستند. این ابزار در برخی صنایع میتواند ظرفیت اشتغالزایی را افزایش دهد و به عنوان یک دستیار ترسناک عمل کند؛ اما هوش مصنوعی تا کنون باعث بیکاری انسانهای زیادی شده است. شرکت پیامرسانی BT اعلام کرده است که برای جایگزینی ۱۰۰۰ نیروی انسانی، هوش مصنوعی را به کار خواهد گرفت. ChatGPT تنها چند ماه است که قابل استفاده برای عموم مردم شده و این مدل هوش مصنوعی در حال حاضر قادر به نوشتن مقالات، برنامهریزی سفر و پاسخ به امتحانات تخصصی است. قابلیتهای زبانی این مدلهای هوش مصنوعی در حال رشد فرارسیدنی هستند.
“جفری هینتون” و پروفسور “یوشوا بنجیو”، از افرادی هستند که به خطراتی که هوش مصنوعی برای جامعه دارد، هشدار دادهاند.
قانون هوش مصنوعی اتحادیه اروپا (The Artificial Intelligence Act) حداقل تا سال ۲۰۲۵ به تأخیر افتاده است و برای “مارگرت وستاگر”، رئیس فناوری اتحادیه اروپا، بسیار دیر است.
او نیز، مانند رهبران حوزه هوش مصنوعی در آمریکا، در حال تهیه و تدوین یک قانون پیشنهادی موقت است که احتمالاً طی چند هفته آینده آماده میشود.