به گزارش کسب و کار نیوز و به نقل از انگجت، توسعه هیچیک از فناوریهای امروزی به اندازه توسعه هوش مصنوعی، نگرانیهای اخلاقی و حتی ترس را برنمیانگیزد و فقط شهروندان عادی نیستند که نگران این مسئله هستند، بلکه شرکتهای فیسبوک، گوگل و دانشگاه استنفورد با تأسیس مراکز تحقیقاتی اخلاق هوش مصنوعی روی آن سرمایهگذاری کردهاند.
اواخر سال گذشته کانادا و فرانسه برای ایجاد یک پیمان بینالمللی برای بحث در مورد مسئولیت هوش مصنوعی همکاری کردند. امروز نیز کمیسیون اروپا دستورالعمل خود را که خواستار “هوش مصنوعی قابل اعتماد” است، منتشر کرد.
با توجه به این دستورالعمل اتحادیه اروپا، هوش مصنوعی باید به اصول پایه اخلاقی و احترام به استقلال بشر، پیشگیری از آسیب، عدالت و پاسخگویی پایبند باشد. این دستورالعمل شامل هفت الزام ذکر شده در زیر میشود و توجه ویژهای به محافظت از قشرهای آسیب پذیر مانند کودکان و افراد معلول دارد. همچنین میگوید که شهروندان باید کنترل کاملی روی اطلاعات خود داشته باشند.
کمیسیون اروپا توصیه میکند که در هنگام توسعه یا استقرار هوش مصنوعی از یک فهرست ارزیابی استفاده شود، اما این دستورالعمل به معنای دخالت در سیاست یا مقررات شرکتها نیست. در عوض یک چارچوب کلی ارائه میدهد.
کمیسیون اروپا در تابستان پیش رو تلاش خواهد کرد تا مناطقی را شناسایی کند که در آن راهنماییهای اضافی ممکن است لازم باشد و چگونگی به کارگیری این دستورالعمل و توصیههای خود را بهتر میکند.
در اوایل سال ۲۰۲۰ نیز گروهی از متخصصان بازخورد این مرحله آزمایشی را بررسی خواهند کرد. همانطور که پتانسیل ساختن چیزهایی مانند سلاحهای خودکار و الگوریتمهای تولید اخبار جعلی توسعه مییابند، دولتها باید بیشتر در زمینه نگرانیهای اخلاقی موضعگیری کنند.
خلاصهای از دستورالعمل اتحادیه اروپا در زیر آمده است:
-سازمانهای انسانی و نظارت: سیستمهای هوش مصنوعی باید با حمایت از سازمانهای انسانی و حقوق بنیادین آنها برابری را رعایت کنند و موجب کاهش، محدود کردن یا نادیده گرفتن استقلال بشر نشوند.
-استحکام و ایمنی: یک هوش مصنوعی قابل اطمینان به الگوریتمهای امن، قابل اعتماد و قوی برای مقابله با اشتباهات و یا عدم انطباق در تمام مراحل چرخه حیات سیستمهای هوش مصنوعی نیاز دارد.
-حفظ حریم خصوصی و کنترل دادهها: شهروندان باید کنترل کامل بر دادههای خود داشته باشند تا دادههای مربوط به آنها به منظور آسیب رساندن و یا تبعیض علیه آنها مورد استفاده قرار نگیرد.
-شفافیت: از ردیابی سیستمهای هوش مصنوعی باید اطمینان حاصل شود.
-تنوع، عدم تبعیض و انصاف: سیستمهای هوش مصنوعی باید طیف وسیعی از تواناییها، مهارتها و الزامات انسانی را در نظر بگیرند و دسترسی آزاد را تضمین کنند.
-رفاه اجتماعی و محیطزیست: سیستمهای هوش مصنوعی باید برای تقویت تغییرات مثبت اجتماعی و افزایش پایداری و مسئولیت زیستمحیطی مورد استفاده قرار گیرند.
-مسئولیت پذیری: باید مکانیزمهایی برای اطمینان از پاسخگویی و مسئولیت پذیری سیستمهای هوش مصنوعی و نتایج آنها ایجاد شود.
انتهای پیام