کد خبر: 209726                      تاريخ انتشار: 1403/08/16 - 12:35
تعداد زیادی از پزشکان از هوش مصنوعی استفاده می‌کنند
 
نتایج یک پژوهش و نظرسنجی از هزار پزشک عمومی نشان می‌دهد که از هر پنج پزشک بریتانیایی، یک نفر از ابزار هوش مصنوعی مولد مانند ChatGPT یا جمینای گوگل برای کمک به تمرینات و تشخیص‌های بالینی استفاده می‌کند.
 
با توجه به تبلیغات پیرامون هوش مصنوعی همراه با چالش‌هایی که سیستم‌های بهداشتی با آن مواجه هستند، جای تعجب نیست که پزشکان و سیاستگذاران به طور یکسان هوش مصنوعی را کلیدی در مدرن‌سازی و تغییر خدمات بهداشتی بدانند.
پزشکان گزارش کرده‌اند که از هوش مصنوعی مولد برای تولید گزارش پس از ویزیت، کمک به تصمیم‌گیری بالینی و ارائه اطلاعات به بیماران مانند گزارش ترخیص و برنامه‌های درمانی استفاده می‌کنند.
پزشکان می‌گویند هوش مصنوعی مولد(GenAI) یک نوآوری جدید است که اساساً نحوه تفکر ما در مورد ایمنی بیمار را به چالش می‌کشد. هنوز چیزهای زیادی در مورد آن وجود دارد که بتوانیم آن را به طور ایمن در تمرینات بالینی روزمره استفاده کنیم.
مشکلات هوش مصنوعی مولد
برنامه‌های کاربردی هوش مصنوعی در اصل برای انجام یک کار بسیار خاص توسعه یافته‌اند. به عنوان مثال، شبکه‌های عصبی یادگیری عمیق برای طبقه‌بندی در تصویربرداری و تشخیص طراحی شده‌اند. چنین سیستم‌هایی در تجزیه و تحلیل ماموگرافی برای کمک به غربالگری سرطان پستان موثر هستند.
اما هوش مصنوعی مولد برای انجام یک کار با تعریف محدود آموزش ندیده است. این فناوری‌ها بر اساس مدل‌های به اصطلاح بنیادی بنا شده‌اند که دارای قابلیت‌های عمومی هستند. این بدان معناست که آنها می‌توانند متن، تصویر، صدا یا حتی ترکیبی از اینها را تولید کنند.
سپس این قابلیت‌ها برای برنامه‌های مختلف مانند پاسخ به سؤالات کاربر، تولید کد یا ایجاد تصاویر به‌ خوبی تنظیم می‌شوند. به نظر می‌رسد که امکانات تعامل با این نوع هوش مصنوعی تنها با تخیل کاربر محدود می‌شود.
این نکته بسیار مهم است، زیرا این فناوری برای استفاده در یک زمینه خاص یا برای استفاده برای یک هدف خاص توسعه نیافته است و ما در واقع نمی‌دانیم که چگونه پزشکان می‌توانند به طور ایمن از آن استفاده کنند. این دلیلی برای نمایش آن است که هوش مصنوعی مولد هنوز برای استفاده گسترده در مراقبت‌های بهداشتی مناسب نیست.
یکی دیگر از مشکلات استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی، پدیده مستند «توهم»(hallucination) است. این توهمات، نتایج بی‌معنی یا غیرواقعی بر اساس ورودی‌های ارائه شده است.
توهمات در زمینه ایجاد خلاصه متن توسط هوش مصنوعی مولد مورد مطالعه قرار گرفته‌اند. یک مطالعه نشان داد که ابزارهای مختلف هوش مصنوعی مولد خروجی‌هایی تولید می‌کنند که بر اساس آنچه در متن گفته شده است، اما پیوندهای نادرستی ایجاد می‌کند یا خلاصه‌ها شامل اطلاعاتی می‌شوند که حتی در متن به آنها اشاره نشده است.
این توهمات به این دلیل اتفاق می‌افتند که هوش مصنوعی مولد بر اساس اصل احتمال(مانند پیش‌بینی اینکه کدام کلمه در یک زمینه خاص بکار گرفته می‌شود) کار می‌کند، نه اینکه مبتنی بر «درک» به معنای انسانی باشد. این بدان معناست که خروجی‌های تولید شده توسط هوش مصنوعی مولد به جای اینکه لزوماً صادقانه باشند، قابل قبول هستند.
این قابل قبول بودن دلیل دیگری بر آن است که برای استفاده ایمن از هوش مصنوعی مولد در امور معمول پزشکی خیلی زود است.
یک ابزار هوش مصنوعی مولد را تصور کنید که به مشاوره دادن به بیمار گوش می‌دهد و سپس یک یادداشت خلاصه الکترونیکی تولید می‌کند. از یک طرف، این کار پزشک عمومی یا پرستار را تسهیل می‌کند تا بهتر با بیمار خود ارتباط برقرار کند، اما از سوی دیگر، هوش مصنوعی مولد به طور بالقوه می‌تواند یادداشت‌هایی را بر اساس آنچه که فکر می‌کند قابل قبول است، تولید کند، نه آنچه واقعی و درست است.
به عنوان مثال، این خلاصه تولید شده توسط هوش مصنوعی مولد ممکن است شدت علائم بیمار را تغییر دهد یا علائمی را اضافه کند که بیمار هرگز از آنها شکایت نکرده است یا شامل اطلاعاتی باشد که بیمار یا پزشک هرگز ذکر نکرده‌اند.
پزشکان و پرستاران باید تمام یادداشت‌های تولید شده توسط هوش مصنوعی را با چشمی مانند عقاب تصحیح کنند و حافظه‌ای عالی داشته باشند تا اطلاعات واقعی را از اطلاعات قابل قبول اما ساختگی متمایز کنند.
این ممکن است در یک محیط سنتی برای پزشکان خانواده خوب باشد، جایی که پزشک عمومی بیمار را به خوبی می‌شناسد تا اطلاعات نادرست را به درستی شناسایی کند. اما در سیستم بهداشتی پراکنده عمومی که بیماران اغلب توسط کارکنان مراقبت‌های بهداشتی مختلف ویزیت می‌شوند، هرگونه نادرستی در یادداشت‌های بیمار می‌تواند خطرات قابل توجهی از جمله تاخیر، درمان نامناسب و تشخیص اشتباه برای سلامتی آنها ایجاد کند.
خطرات مرتبط با توهم قابل توجه است، اما شایان ذکر است که محققان و توسعه دهندگان در حال حاضر روی کاهش احتمال توهم هوش مصنوعی مولد کار می‌کنند.
ایمنی بیماران
یکی دیگر از دلایلی که برای استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی خیلی زود است، این است که ایمنی بیمار به تعامل با هوش مصنوعی برای تعیین میزان عملکرد آن در یک زمینه و محیط خاص بستگی دارد. نگاهی به نحوه کار این فناوری در رابطه با مردم، نحوه انطباق آن با قوانین و فشارها و فرهنگ و اولویت‌ها در یک سیستم سلامت بزرگ‌تر این را نشان می‌دهد. چنین دیدگاه سیستمی تعیین می‌کند که آیا استفاده از هوش مصنوعی مولد ایمن است یا خیر.
از آنجایی که هوش مصنوعی مولد برای کاربرد خاصی طراحی نشده است، به این معنی است که قابل انطباق است و می‌تواند به گونه‌ای استفاده شود که ما نمی‌توانیم به طور کامل پیش‌بینی کنیم. علاوه بر این، توسعه دهندگان به طور مرتب فناوری خود را به‌روز می‌کنند و قابلیت‌های عمومی جدیدی را به آن اضافه می‌کنند که رفتار برنامه هوش مصنوعی مولد را تغییر می‌دهد.
همچنین حتی اگر به نظر برسد که این فناوری ایمن است و همانطور که در نظر گرفته شده کار می‌کند، باز هم بسته به زمینه استفاده خود کار می‌کند و ممکن است آسیبی رخ دهد.
به عنوان مثال، معرفی عوامل مکالمه هوش مصنوعی مولد برای تریاژ می‌تواند بر تمایل بیماران مختلف برای تعامل با سیستم مراقبت‌های بهداشتی تأثیر بگذارد. بیماران با سواد دیجیتال پایین‌تر، افرادی که زبان اصلی آنها انگلیسی نیست و بیمارانی که سخن نمی‌گویند ممکن است استفاده از هوش مصنوعی مولد را دشوار بدانند. بنابراین در حالی که ممکن است این فناوری اصولاً کار کند، اما اگر این فناوری برای همه کاربران به طور یکسان کار نکند، همچنان می‌تواند آسیب‌زا باشد.
نکته اینجاست که پیش‌بینی چنین خطرهایی با هوش مصنوعی مولد از طریق رویکردهای تحلیل ایمنی سنتی بسیار دشوارتر است. این رویکردها به درک این موضوع می‌پردازند که چگونه یک اختلال در این فناوری می‌تواند باعث آسیب در زمینه‌های خاص شود.
در مجموع، مراقبت‌های بهداشتی می‌توانند از پذیرش هوش مصنوعی مولد و سایر ابزارهای هوش مصنوعی بهره‌مند شوند، اما قبل از اینکه این فناوری بتواند به طور گسترده‌تر در مراقبت‌های بهداشتی مورد استفاده قرار گیرد، تضمین ایمنی و مقررات باید به پیشرفت‌ها در مکان و نحوه استفاده از این فناوری پاسخگوتر باشند.
همچنین برای توسعه دهندگان ابزارها و تنظیم کننده‌های هوش مصنوعی مولد ضروری است که با جوامعی که از این فناوری‌ها استفاده می‌کنند برای توسعه ابزارهایی که می‌توانند به طور منظم و ایمن در عمل بالینی استفاده شوند، کار کنند.
ایسنا
انتهای پیام/ن