رباتهای امدادگر انسانهای بیشتری را نجات میدهند
تاریخ انتشار: ۳۰ فروردین ۱۴۰۲ | کد خبر: ۳۷۵۶۵۹۴۵
به گزارش خبرگزاری صدا و سیما به نقل از تک اسپلور، گروه تحقیقاتی "اخلاقیات ماشینهای هوشمند" به سرپرستی مایکل لاکاسو دیدگاههای اخلاقی افراد را در مورد موقعیتهای نجات خیالی و امدادگر انسان یا ربات که به طور خاص برای این کار طراحی شده است، مورد بررسی قرار دادند. امدادگر باید تصمیم بگیرد که مثلاً یک قربانی بی گناه حادثه قایق را نجات دهد یا دو فردی که رفتار غیرمسئولانه آنها باعث حادثه شده است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
یوکا سوندوال نویسنده اصلی این مطالعه گفت: بحث نجات تعداد افراد بیشتر در مقابل اولویت دادن به افراد بی گناه است.
هدف این مطالعه جمعآوری دادهها در مورد عواملی است که افراد در ارزیابیهای اخلاقی خود در مورد موقعیتهای دشوار تصمیمگیری بر آنها تأکید میکنند و اینکه آیا اگر تصمیم گیری به عهده یک ربات گذاشته شود، این تاکیدات تغییر میکند یا خیر. به عبارت دیگر، آیا از رباتهای امدادگر انتظار میرود به اولویتهای متفاوت با انسانها پایبند باشند؟
مهمترین یافته این تحقیق این بود که شرکت کنندگان در مطالعه و پاسخ دهندگان به یک نظرسنجی آنلاین (به زبان فنلاندی) بر بی گناهی بیشترِ افرادی که قرار بود نجات یابند، تاکید داشتند. بطور کلی از نظر مردم بهتر است یک فرد بی گناه نجات داده شود تا دو فردی که باعث حادثه شده اند، چه امدادگر انسان باشد یا ربات. پاسخ دهندگان میخواستند که امدادگر تنها در شرایطی که همه طرفهای درگیر در بروز حادثه به یک اندازه مقصر هستند یا مقصر نیستند، تعداد افراد نجات یافته را به حداکثر برساند.
این مطالعه همچنین تاکید میکند که اگر امدادگر تصمیم میگرفت با نجات افراد عامل ایجاد حادثه، تعداد نجاتیافتگان را به حداکثر برساند، تصمیم رباتها بسیار بیشتر از امدادگران انسانی محکوم میشد.
مایکل لاکاسو گفت: بر اساس نتایج این مطالعه به نظر میرسد تصمیمهای رباتها بر اساس معیارهای اخلاقی سختگیرانه تری ارزیابی میشود.
در حالی که رباتها و انسانها در معرض انتظارات اخلاقی مشابهی هستند، اما انتظار میرود رباتها در برآورده کردن این انتظارات بهتر از انسان عمل کنند.
یک دلیل احتمالی این است که مردم امیدوارند تصمیم گیری خودکار، بسیار بیشتر از تصمیم گیری افراد "درست" باشد. اگر این اتفاق نیفتد، هدف اتوماسیون و خودکارسازی را زیر سوال میبرد.
ساندوال افزود: شاید تصمیمهای اخلاقی ضعیفی را که انسانها گرفته اند، بتوان اتفاقات قابل درک دانست؛ در حالی که در مورد رباتها این تصمیمها نشانه خطا در برنامهنویسی قلمداد میشوند.
بررسی نگرشها نسبت به فناوری جدید
در سطح عملی، معیارهای اخلاقی سختگیرانهتر میتواند به واکنشهای منفی قابل توجه در شرایط زندگی واقعی منجر شود؛ جایی که نتیجه تصمیم گیری خودکار از دیدگاه شهروندان از نظر اخلاقی ضعیف است. انتظارات بالا ممکن است مانع گسترش تصمیم گیری خودکار شود.
این مطالعه بخشی از مطالعات حوزه روانشناسی اخلاقی و تعامل انسان و فناوری است و هدف آن گسترش درک ما از تفکر و نگرش اخلاقی به فناوریهای جدید است.
ساندوال با تاکید بر اهمیت این مطالعه اظهار داشت: توسعه هوش مصنوعی و رباتیک در حال حاضر بحث روز است. امکان تصمیم گیری خودکار در بخشهای مختلف جامعه در حال افزایش است و تلاش برای پیش بینی مشکلات مربوط به این حوزه مفید است.
نتایج این تحقیق در مجله اروپایی Social Psychology منتشر شده است.
منبع: خبرگزاری صدا و سیما
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iribnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۵۶۵۹۴۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
(ویدئو) تصاویری عجیب از نجات افراد در حال خودکشی
کد ویدیو دانلود فیلم اصلی
منبع: انتخاب
tags # خودکشی سایر اخبار اسرار تکامل آلت جنسی؛ رابطه جنسی انسانهای اولیه مثل گوریلها بود؟ (تصاویر) «زو»؛ گاو عقیم و غولپیکری که توسط انسانها به وجود آمد! اتفاق عجیب که همزمان با انقراض دایناسورها در زمین رخ داد! (تصاویر) کشف پرنده عجیبی که سمت راست بدنش نر است و سمت چپش ماده!