متن خبر

هوش مصنوعی مولد برای مراقبت های بهداشتی می آید و همه هیجان زده نیستند

هوش مصنوعی مولد برای مراقبت های بهداشتی می آید و همه هیجان زده نیستند

شناسهٔ خبر: 464386 -




هوش مصنوعی مولد، که می‌تواند تصاویر، متن، صدا، ویدئو و موارد دیگر را ایجاد و تجزیه و تحلیل کند، به طور فزاینده‌ای راه خود را به سمت مراقبت‌های بهداشتی باز می‌کند که هم توسط شرکت‌های بزرگ فناوری و هم از سوی استارت‌آپ‌ها تحت فشار قرار می‌گیرد.

Google Cloud، بخش خدمات و محصولات ابری گوگل، با Highmark Health، یک شرکت مراقبت های بهداشتی غیرانتفاعی مستقر در پیتسبورگ، در زمینه ابزارهای هوش مصنوعی مولد طراحی شده برای شخصی سازی تجربه پذیرش بیمار همکاری می کند. بخش AWS آمازون او میگوید که در حال کار با مشتریان ناشناس بر روی روشی برای استفاده از هوش مصنوعی مولد برای تجزیه و تحلیل پایگاه‌های داده پزشکی برای «تعیین‌کننده‌های اجتماعی سلامت» است. و مایکروسافت آژور به ساخت یک سیستم هوش مصنوعی مولد برای Providence، شبکه مراقبت بهداشتی غیرانتفاعی، کمک می‌کند تا به‌طور خودکار پیام‌های ارسالی به ارائه‌دهندگان مراقبت از بیماران را تریاژ کند.

استارت‌آپ‌های برجسته هوش مصنوعی مولد در مراقبت‌های بهداشتی شامل Ambience Healthcare است که در حال توسعه یک برنامه هوش مصنوعی مولد برای پزشکان است. Nabla، دستیار هوش مصنوعی محیطی برای تمرین‌کنندگان؛ و Abridge که ابزارهای تحلیلی برای اسناد پزشکی ایجاد می کند.

اشتیاق گسترده برای هوش مصنوعی مولد در سرمایه گذاری در تلاش های هوش مصنوعی مولد با هدف مراقبت های بهداشتی منعکس می شود. در مجموع، هوش مصنوعی مولد در استارت‌آپ‌های مراقبت‌های بهداشتی ده‌ها میلیون دلار سرمایه‌گذاری مخاطره‌آمیز تا به امروز افزایش داده است، و اکثریت قریب به اتفاق سرمایه‌گذاران حوزه سلامت می‌گویند که هوش مصنوعی مولد به‌طور قابل‌توجهی بر استراتژی‌های سرمایه‌گذاری آنها تأثیر گذاشته است.

اما هم متخصصان و هم بیماران در مورد اینکه آیا هوش مصنوعی مولد متمرکز بر مراقبت های بهداشتی برای بهترین زمان آماده است یا خیر، اختلاف نظر دارند.

هوش مصنوعی مولد ممکن است آن چیزی نباشد که مردم می خواهند

در نظرسنجی اخیر Deloitte، تنها حدود نیمی (53٪) از مصرف‌کنندگان آمریکایی گفتند که فکر می‌کنند هوش مصنوعی مولد می‌تواند مراقبت‌های بهداشتی را بهبود بخشد - برای مثال، با در دسترس‌تر کردن آن یا کوتاه کردن زمان انتظار قرار ملاقات. کمتر از نیمی از آنها گفتند که انتظار دارند هوش مصنوعی مولد مراقبت های پزشکی را مقرون به صرفه تر کند.

اندرو بورکوفسکی، افسر ارشد هوش مصنوعی در شبکه بهداشت و درمان VA Sunshine، بزرگترین سیستم بهداشتی وزارت امور کهنه سربازان ایالات متحده، فکر نمی‌کند که بدبینی بی‌جا باشد. بورکوفسکی هشدار داد که استقرار هوش مصنوعی مولد به دلیل محدودیت‌های «مهم» و نگرانی‌هایی که در مورد کارایی آن وجود دارد، ممکن است زودرس باشد.

او به TechCrunch گفت: «یکی از مسائل کلیدی هوش مصنوعی مولد ناتوانی آن در رسیدگی به سوالات پیچیده پزشکی یا موارد اضطراری است. پایگاه دانش محدود آن - یعنی فقدان اطلاعات بالینی به روز - و فقدان تخصص انسانی آن را برای ارائه توصیه های پزشکی جامع یا توصیه های درمانی نامناسب می کند.

چندین مطالعه نشان می دهد که اعتباری برای آن نکات وجود دارد.

در مقاله‌ای در ژورنال JAMA Pediatrics، چت ربات هوش مصنوعی مولد OpenAI، ChatGPT، که برخی از سازمان‌های مراقبت‌های بهداشتی آن را برای موارد استفاده محدود آزمایش کرده‌اند، مشخص شد که در ۸۳ درصد مواقع در تشخیص بیماری‌های کودکان اشتباه می‌کند. و در آزمایش GPT-4 OpenAI به عنوان دستیار تشخیصی، پزشکان در مرکز پزشکی Beth Israel Deaconess در بوستون مشاهده کردند که این مدل تشخیص اشتباه را به عنوان بهترین پاسخ خود تقریباً دو برابر از سه رتبه بندی کرده است.

هوش مصنوعی مولد امروزی همچنین با وظایف اداری پزشکی که بخشی از گردش کار روزانه پزشکان هستند، دست و پنجه نرم می کند. در معیار MedAlign برای ارزیابی اینکه هوش مصنوعی مولد چقدر می تواند کارهایی مانند خلاصه کردن سوابق سلامتی بیمار و جستجو در میان یادداشت ها را انجام دهد، GPT-4 در 35٪ موارد شکست خورد.

OpenAI و بسیاری دیگر از فروشندگان هوش مصنوعی مولد نسبت به اتکا به مدل های خود برای مشاوره پزشکی هشدار می دهند. اما بورکوفسکی و دیگران می گویند که می توانند کارهای بیشتری انجام دهند. بورکووسکی گفت: «تکیه صرفاً بر هوش مصنوعی مولد برای مراقبت‌های بهداشتی می‌تواند منجر به تشخیص‌های اشتباه، درمان‌های نامناسب یا حتی موقعیت‌های تهدیدکننده زندگی شود.

یان ایگر، که رهبری درمان‌های هدایت‌شده با هوش مصنوعی را در مؤسسه پزشکی هوش مصنوعی دانشگاه دویسبورگ-اسن، که کاربردهای فناوری نوظهور برای مراقبت از بیمار را مطالعه می‌کند، با نگرانی‌های بورکوفسکی هم‌رسانی می‌کند. او معتقد است که در حال حاضر تنها راه مطمئن برای استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی، زیر نظر دقیق و مراقب یک پزشک است.

ایگر گفت: «نتایج ممکن است کاملاً اشتباه باشد، و حفظ آگاهی از این موضوع سخت‌تر و سخت‌تر می‌شود». "مطمئناً، هوش مصنوعی مولد را می توان به عنوان مثال برای پیش نوشتن نامه های تخلیه استفاده کرد. اما پزشکان وظیفه دارند آن را تحلیل کنند و تماس نهایی را برقرار کنند.»

هوش مصنوعی مولد می تواند کلیشه ها را تداوم بخشد

یکی از راه‌های مضری که هوش مصنوعی مولد در مراقبت‌های بهداشتی می‌تواند باعث اشتباه شود، تداوم کلیشه‌ها است.

در یک مطالعه در سال 2023 در پزشکی استنفورد، تیمی از محققان ChatGPT و دیگر ربات‌های گفتگوی مولد مبتنی بر هوش مصنوعی را در مورد سؤالاتی در مورد عملکرد کلیه، ظرفیت ریه و ضخامت پوست آزمایش کردند. نویسندگان همکار دریافتند که نه تنها پاسخ‌های ChatGPT اغلب اشتباه بوده است، بلکه پاسخ‌ها شامل چندین باور نادرست طولانی‌مدت تقویت‌شده مبنی بر وجود تفاوت‌های بیولوژیکی بین سیاه‌پوستان و سفیدپوستان است - نادرستی‌هایی که می‌دانند ارائه‌دهندگان پزشکی را به اشتباه در تشخیص مشکلات سلامتی سوق داده‌اند.

نکته طنز این است که بیمارانی که بیشتر به واسطه هوش مصنوعی مولد برای مراقبت های بهداشتی مورد تبعیض قرار می گیرند، کسانی هستند که بیشتر از آن استفاده می کنند.

نظرسنجی Deloitte نشان داد افرادی که فاقد پوشش مراقبت‌های بهداشتی هستند - افراد رنگین پوست، به طور کلی، طبق یک مطالعه KFF - مایلند هوش مصنوعی مولد را برای مواردی مانند پیدا کردن پزشک یا حمایت سلامت روان امتحان کنند. اگر توصیه های هوش مصنوعی با سوگیری خدشه دار شود، می تواند نابرابری در درمان را تشدید کند.

با این حال، برخی از کارشناسان استدلال می کنند که هوش مصنوعی مولد در این زمینه در حال بهبود است.

در یک مطالعه مایکروسافت که در اواخر سال 2023 منتشر شد، محققان گفتند که با استفاده از GPT-4 به دقت 90.2 درصدی در چهار معیار پزشکی چالش برانگیز دست یافته‌اند. Vanilla GPT-4 نتوانست به این امتیاز برسد. اما، محققان می‌گویند، از طریق مهندسی سریع - طراحی اعلان‌هایی برای GPT-4 برای تولید خروجی‌های خاص - آنها توانستند امتیاز مدل را تا 16.2 درصد افزایش دهند. (شایان ذکر است که مایکروسافت یک سرمایه گذار بزرگ در OpenAI است. )

فراتر از چت بات ها

اما سوال پرسیدن از یک چت بات تنها چیزی نیست که هوش مصنوعی مولد برای آن خوب است. برخی از محققان می گویند که تصویربرداری پزشکی می تواند از قدرت هوش مصنوعی مولد بهره زیادی ببرد.

در ماه جولای، گروهی از دانشمندان در مطالعه‌ای که در Nature منتشر شد، از سیستمی به نام تعویق جریان کار بالینی مبتنی بر مکمل (CoDoC) رونمایی کردند. این سیستم به گونه ای طراحی شده است که بفهمد چه زمانی متخصصان تصویربرداری پزشکی باید برای تشخیص در مقابل تکنیک های سنتی به هوش مصنوعی اعتماد کنند. به گفته نویسندگان همکار، CoDoC بهتر از متخصصان عمل کرد در حالی که گردش کار بالینی را تا 66 درصد کاهش داد.

در ماه نوامبر، یک تیم تحقیقاتی چینی مدل Panda را که یک مدل هوش مصنوعی برای تشخیص ضایعات احتمالی پانکراس در اشعه ایکس استفاده می‌شود، به نمایش گذاشت. یک مطالعه نشان داد پاندا در طبقه بندی این ضایعات، که اغلب برای مداخله جراحی خیلی دیر تشخیص داده می شوند، بسیار دقیق است.

در واقع، Arun Thirunavukarasu، محقق بالینی در دانشگاه آکسفورد، گفت: "هیچ چیز منحصر به فردی" در مورد هوش مصنوعی مولد وجود ندارد که مانع استقرار آن در محیط های مراقبت های بهداشتی شود.

او گفت: «کاربردهای پیش پا افتاده‌تر فناوری هوش مصنوعی مولد در کوتاه‌مدت و میان‌مدت امکان‌پذیر است و شامل تصحیح متن، مستندسازی خودکار یادداشت‌ها و حروف و آپشن های جستجوی بهبودیافته برای بهینه‌سازی سوابق الکترونیکی بیماران است. دلیلی وجود ندارد که فناوری هوش مصنوعی مولد - در صورت موثر بودن - نمی تواند فوراً در این نوع نقش ها به کار گرفته شود.

"علم دقیق"

اما در حالی که هوش مصنوعی مولد در حوزه‌های خاص و باریک پزشکی نویدبخش است، کارشناسانی مانند Borkowski به موانع فنی و انطباق‌هایی اشاره می‌کنند که قبل از اینکه هوش مصنوعی مولد به عنوان یک ابزار مراقبت بهداشتی کمکی مفید و قابل اعتماد باشد، باید برطرف شود.

بورکوفسکی گفت: «نگرانی‌های مهم در خصوص حفظ حریم خصوصی و امنیتی استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی را احاطه کرده است. "ماهیت حساس داده های پزشکی و احتمال سوء استفاده یا دسترسی غیرمجاز، خطرات جدی را برای محرمانگی و اعتماد بیمار به سیستم مراقبت های بهداشتی ایجاد می کند. علاوه بر این، چشم‌انداز قانونی و قانونی پیرامون استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی همچنان در حال تحول است و سؤالات مربوط به مسئولیت، حفاظت از داده‌ها و عمل پزشکی توسط نهادهای غیرانسانی هنوز باید حل شود.

حتی Thirunavukarasu که از هوش مصنوعی مولد در مراقبت‌های بهداشتی خوش‌بین است، او میگوید که باید «علم دقیق» پشت ابزارهایی وجود داشته باشد که بیمار رو به رو هستند.

او گفت: «به ویژه بدون نظارت مستقیم پزشک، باید کارآزمایی‌های تصادفی‌سازی شده عملی کنترلی وجود داشته باشد که مزایای بالینی را برای توجیه استقرار هوش مصنوعی مولد رو به بیمار نشان دهد.» "حکمرانی مناسب در آینده برای دریافت هرگونه آسیب پیش بینی نشده پس از استقرار در مقیاس ضروری است. "

اخیراً، سازمان بهداشت جهانی دستورالعمل‌هایی را منتشر کرد که از این نوع علم و نظارت انسانی بر هوش مصنوعی مولد در مراقبت‌های بهداشتی و همچنین معرفی حسابرسی، شفافیت و ارزیابی‌های تاثیر بر این هوش مصنوعی توسط اشخاص ثالث مستقل حمایت می‌کند. هدف، سازمان جهانی بهداشت در دستورالعمل‌های خود، تشویق مشارکت گروه‌های متنوعی از مردم در توسعه هوش مصنوعی مولد برای مراقبت‌های بهداشتی و فرصتی برای ابراز نگرانی‌ها و ارائه نظرات در طول فرآیند خواهد بود.

بورکوفسکی گفت: «تا زمانی که نگرانی‌ها به اندازه کافی برطرف نشود و تدابیر حفاظتی مناسب اعمال نشود، اجرای گسترده هوش مصنوعی مولد پزشکی ممکن است ... به طور بالقوه برای بیماران و صنعت مراقبت‌های بهداشتی به عنوان یک کل مضر باشد.»

خبرکاو

ارسال نظر




تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است