صفحه اصلی / اجتماعی / آموزش / اخلاقیات، تنها ابزار کنترل هوش مصنوعی هستند
اخلاقیات، تنها ابزار کنترل هوش مصنوعی هستند

متخصصان حوزه فناوری:

اخلاقیات، تنها ابزار کنترل هوش مصنوعی هستند

برخی متخصصان حوزه فناوری باور دارند که تنها راه مهار کردن اختیارات هوش مصنوعی و ایمن ساختن آن، استفاده از استانداردهای اخلاقی است.

هوش مصنوعی

به گزارش کسب و کار نیوز، هوش مصنوعی به تدریج خود را در میان جنبه‌های گوناگون زندگی انسان جای می‌دهد و بر زندگی و کار انسان‌ها اثر می‌گذارد. در سال‌های اخیر، هشدارهای بسیاری در مورد گسترش اجتناب‌ناپذیر هوش مصنوعی و امکان قرار گرفتن آن در جایگاه انسان مطرح شده است. بسیاری از متخصصان این حوزه عقیده دارند در صورت گسترش هوش مصنوعی در مشاغل مربوط به فناوری، انسان‌ها بسیاری از فرصت‌های شغلی را از دست خواهند داد و به تدریج ربات‌ها جایگزین انسان‌ها خواهند شد.

اعتراضات و هشدارهای گسترده در این حوزه نشان می‌دهند که ممکن است هوش مصنوعی، به خطری جدی برای آینده شغلی انسان‌ها تبدیل شود. رخدادهایی مانند واکنش اعتراضی کارمندان “اپل” نسبت به پروژه‌های مربوط به هوش مصنوعی مانند پروژه “ماون“(Maven)، ثابت می‌کنند که در نظر گرفتن اخلاقیات در این حوزه، از نکات مهم و ضروری است. قراردادهای اخلاقی، برای اطمینان از اعتبار این فناوری، لازم هستند، میزان خطرات احتمالی را کاهش می‌دهند و به انسان‌ها در بهبود کارشان کمک می‌کنند.

مخالفان و معترضان ورود هوش مصنوعی به مشاغل انسانی تاکید دارند که اگر هوش مصنوعی بتواند در برخی زمینه‌ها از مغز انسان فراتر برود، به فرمانروای بسیار قدرتمندی تبدیل خواهد شد که احتمالاً ورای اختیارات انسانی عمل می‌کند؛ در نتیجه سرنوشت و آینده انسان‌ها به هوش مصنوعی وابسته خواهد شد. در واقع، موضوع اصلی در گسترش قدرت هوش مصنوعی، توانایی مهار پیشرفت آن است.

مکس تگمارک“(Max Tegmark)، فیزیکدان و کیهان شناس دانشگاه “ام. آی. تی“(MIT) در این باره گفت: ما باید عواقب پنهان به کارگیری هوش مصنوعی را کاملاً در نظر بگیریم. به نظر من، نیازی نیست که هوش مصنوعی برای تخریب دنیا، به یک نیروی شیطانی تبدیل شود یا در حالت رباتیک قرار گیرد. در واقع، مشکل اصلی هوش مصنوعی، قابلیت بیش از اندازه و نگران‌کننده تفکر آن است. مشکل بزرگ‌تر هنگامی ایجاد می‌شود که اهداف هوش مصنوعی با اهداف انسانی همخوانی نداشته باشد.

کریتی شارما“(Kriti Sharma)، از متخصصان و افراد مؤثر در حوزه فناوری، تجارت و رسانه و یکی از ۱۰۰ متخصص تأثیرگذار در این زمینه، از افرادی است که لزوم مطرح شدن اخلاقیات را در حوزه هوش مصنوعی تأیید و توصیه می‌کند. شارما در این باره گفت: یکی از چالش‌های مهم در حوزه صنعت و فناوری، بررسی نحوه دور شدن از هوش مصنوعی به عنوان یک تهدید شغلی و ایمنی و قرار دادن آن در حوزه اخلاقیات است. به طور کلی می‌توان گفت که تجارت و فناوری باید در مورد تأثیر جهانی هوش مصنوعی، صادق باشند و نگرانی‌های عمومی در مورد این موضوع را در نظر بگیرند. در حال حاضر، بسیاری از مشاغل کنونی حوزه فناوری، به خصوص فناوری دیجیتال، بیش از تحصیلات، مبتنی بر علاقه و مهارت کسانی هستند که علاقه خود را در این زمینه دنبال می‌کنند و با صرف زمان و هزینه، به یادگیری مهارت‌های مورد نیاز می‌پردازند. به عقیده من، بهترین راه برای شرکت‌های فعال در حوزه فناوری، اهمیت دادن به مهارت‌های این افراد و تلاش برای پر کردن شکاف‌های میان هوش مصنوعی و نیروی انسانی است.

وی افزود: در اینجا، لزوم وجود اخلاقیات و قرار دادن استانداردهای اخلاقی برای استفاده از هوش مصنوعی مطرح می‌شود. نهادها و سازمان‌های مربوط به فناوری می‌توانند با قرار دادن شرایط و استانداردهای اخلاقی در این زمینه، به پیشرفت و بهبود کار با هوش مصنوعی کمک کنند. بدین ترتیب، حتی با ورود هوش مصنوعی به کارهای گوناگون، امکان حفظ موقعیت و استعدادهای انسانی فراهم می‌شود و نیروی انسانی در این میان لطمه نخواهد دید. رهبران حوزه تجارت و فناوری می‌توانند با کنترل اختیارات هوش مصنوعی، به متخصصان انسانی قدرت بیشتری بدهند و به تکامل مهارت‌های آنان کمک کنند تا کار هوش مصنوعی با روشی اخلاقی صورت گیرد.

شارما با تاکید بر لزوم همراهی نیروی انسانی و هوش مصنوعی اضافه کرد: برنامه‌های مربوط به فناوری باید نحوه سازگاری افراد با هوش مصنوعی را به آنها آموزش دهند تا افراد بتوانند به راحتی با این حوزه تعامل داشته باشند و با آن کار کنند. با آموزش درست نیروی انسانی و پایبندی به استانداردهای اخلاقی، کارآیی هوش مصنوعی افزایش می‌یابد و امکان بهره‌برداری مناسب از آن فراهم می‌شود.

انتهای پیام

همچنین مطالعه کنید:

«افزایش سن بازنشستگی» از فروردین ۱۴۰۳/ با قانون جدید چگونه می‌توان زودتر از موعد بازنشسته شد؟

به گزارش کسب و کار نیوز، محمد محمدی با اشاره به موافقت شورای نگهبان با …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.