مشاهده اخبار از طریق شبکه های اجتماعیمشاهده
بر اساس مطالعه اخیر آکسفورد، اعتماد بیش از حد به خروجیهای هوش مصنوعی میتواند مخاطرهآمیز باشد
به گزارش پایگاه خبری علم و فناوری :امروزه با گسترش کاربران هوش مصنوعی، میزان استفاده از تجویز های هوش مصنوعی برای تشخیص وضعیت سلامتی کاربران بالا رفته است.
امروزه هوش مصنوعی یک قدم به مرز واقعیت نزدیک تر شده است اما هنوز نمی توان او را کامل جایگزین انسان نمود.
دسترسی آسان به دریافت پاسخ در هوش مصنوعی سبب شده است که بسیاری از مردم برای تشخیص بیماری های خود و توصیه های پزشکی به چترباتهای مبتنی بر هوش مصنوعی مانند ChatGPT روی میآورند. طبق یک نظرسنجی اخیر، حدود یک نفر از هر شش بزرگسال آمریکایی در حال حاضر ماهانه از چت ربات ها برای توصیه های بهداشتی استفاده می کنند.
بر اساس مطالعه اخیر آکسفورد، اعتماد بیش از حد به خروجیهای چتباتها میتواند مخاطرهآمیز باشد، تا حدی به این دلیل که مردم در تلاش هستند تا بدانند چه اطلاعاتی را برای بهترین توصیههای بهداشتی ممکن باید به چترباتها بدهند.
آدام مهدی، مدیر مطالعات تحصیلات تکمیلی در مؤسسه اینترنت آکسفورد ، به TechCrunch گفت: «این مطالعه یک اختلال دو طرفه را نشان داد. «کسانی که از [چت رباتها] استفاده میکنند، تصمیمات بهتری نسبت به شرکتکنندگانی که به روشهای سنتی مانند جستجوهای آنلاین یا قضاوت خود متکی بودند، نگرفتند.
برای این مطالعه، نویسندگان حدود 1300 نفر را در بریتانیا استخدام کردند و سناریوهای پزشکی نوشته شده توسط گروهی از پزشکان را به آنها دادند. شرکتکنندگان وظیفه داشتند شرایط سلامتی بالقوه را در سناریوها شناسایی کنند و از چتباتها و همچنین روشهای خودشان برای کشف دورههای عملی احتمالی (به عنوان مثال، مراجعه به پزشک یا رفتن به بیمارستان) استفاده کنند.
شرکتکنندگان از مدل پیشفرض هوش مصنوعی که ChatGPT، GPT-4o و همچنین Cohere’s Command R+ و Meta’s Llama 3 تامین میکرد، استفاده کردند. به گفته محققان، چت باتها شرکتکنندگان را، راهنمایی درست در راستای شناسایی وضعیت سلامتی آنها نمیکند و متاسفانه باعث میشوند کاربران، شدت شرایطی را که شناسایی کردهاند و به آنها مبتلا هستند را دست کم بگیرند.
این سطحی نگاری و اعتماد افراطی به هوش مصنوعی می تواند تبدیل به مشکل جهانی و تهدیدی جدی در حوزه سلامت و بهداشت به حساب بیاید.
1403/03/22 12:05
1403/03/22 11:56
1403/03/22 11:46
1403/03/22 11:37
1403/03/22 11:34
1403/03/22 10:14
1403/03/22 09:34
1403/03/22 09:32
1403/03/22 08:53