هوش مصنوعی مولد برای مراقبت های بهداشتی می آید و همه هیجان زده نیستند
هوش مصنوعی مولد، که میتواند تصاویر، متن، صدا، ویدئو و موارد دیگر را ایجاد و تجزیه و تحلیل کند، به طور فزایندهای راه خود را به سمت مراقبتهای بهداشتی باز میکند که هم توسط شرکتهای بزرگ فناوری و هم از سوی استارتآپها تحت فشار قرار میگیرد.
Google Cloud، بخش خدمات و محصولات ابری گوگل، با Highmark Health، یک شرکت مراقبت های بهداشتی غیرانتفاعی مستقر در پیتسبورگ، در زمینه ابزارهای هوش مصنوعی مولد طراحی شده برای شخصی سازی تجربه پذیرش بیمار همکاری می کند. بخش AWS آمازون او میگوید که در حال کار با مشتریان ناشناس بر روی روشی برای استفاده از هوش مصنوعی مولد برای تجزیه و تحلیل پایگاههای داده پزشکی برای «تعیینکنندههای اجتماعی سلامت» است. و مایکروسافت آژور به ساخت یک سیستم هوش مصنوعی مولد برای Providence، شبکه مراقبت بهداشتی غیرانتفاعی، کمک میکند تا بهطور خودکار پیامهای ارسالی به ارائهدهندگان مراقبت از بیماران را تریاژ کند.
استارتآپهای برجسته هوش مصنوعی مولد در مراقبتهای بهداشتی شامل Ambience Healthcare است که در حال توسعه یک برنامه هوش مصنوعی مولد برای پزشکان است. Nabla، دستیار هوش مصنوعی محیطی برای تمرینکنندگان؛ و Abridge که ابزارهای تحلیلی برای اسناد پزشکی ایجاد می کند.
اشتیاق گسترده برای هوش مصنوعی مولد در سرمایه گذاری در تلاش های هوش مصنوعی مولد با هدف مراقبت های بهداشتی منعکس می شود. در مجموع، هوش مصنوعی مولد در استارتآپهای مراقبتهای بهداشتی دهها میلیون دلار سرمایهگذاری مخاطرهآمیز تا به امروز افزایش داده است، و اکثریت قریب به اتفاق سرمایهگذاران حوزه سلامت میگویند که هوش مصنوعی مولد بهطور قابلتوجهی بر استراتژیهای سرمایهگذاری آنها تأثیر گذاشته است.
اما هم متخصصان و هم بیماران در مورد اینکه آیا هوش مصنوعی مولد متمرکز بر مراقبت های بهداشتی برای بهترین زمان آماده است یا خیر، اختلاف نظر دارند.
هوش مصنوعی مولد ممکن است آن چیزی نباشد که مردم می خواهند
در نظرسنجی اخیر Deloitte، تنها حدود نیمی (53٪) از مصرفکنندگان آمریکایی گفتند که فکر میکنند هوش مصنوعی مولد میتواند مراقبتهای بهداشتی را بهبود بخشد – برای مثال، با در دسترستر کردن آن یا کوتاه کردن زمان انتظار قرار ملاقات. کمتر از نیمی از آنها گفتند که انتظار دارند هوش مصنوعی مولد مراقبت های پزشکی را مقرون به صرفه تر کند.
اندرو بورکوفسکی، افسر ارشد هوش مصنوعی در شبکه بهداشت و درمان VA Sunshine، بزرگترین سیستم بهداشتی وزارت امور کهنه سربازان ایالات متحده، فکر نمیکند که بدبینی بیجا باشد. بورکوفسکی هشدار داد که استقرار هوش مصنوعی مولد به دلیل محدودیتهای «مهم» و نگرانیهایی که در مورد کارایی آن وجود دارد، ممکن است زودرس باشد.
او به TechCrunch گفت: «یکی از مسائل کلیدی هوش مصنوعی مولد ناتوانی آن در رسیدگی به سوالات پیچیده پزشکی یا موارد اضطراری است. پایگاه دانش محدود آن – یعنی فقدان اطلاعات بالینی به روز – و فقدان تخصص انسانی آن را برای ارائه توصیه های پزشکی جامع یا توصیه های درمانی نامناسب می کند.
چندین مطالعه نشان می دهد که اعتباری برای آن نکات وجود دارد.
در مقالهای در ژورنال JAMA Pediatrics، چت ربات هوش مصنوعی مولد OpenAI، ChatGPT، که برخی از سازمانهای مراقبتهای بهداشتی آن را برای موارد استفاده محدود آزمایش کردهاند، مشخص شد که در ۸۳ درصد مواقع در تشخیص بیماریهای کودکان اشتباه میکند. و در آزمایش GPT-4 OpenAI به عنوان دستیار تشخیصی، پزشکان در مرکز پزشکی Beth Israel Deaconess در بوستون مشاهده کردند که این مدل تشخیص اشتباه را به عنوان بهترین پاسخ خود تقریباً دو برابر از سه رتبه بندی کرده است.
هوش مصنوعی مولد امروزی همچنین با وظایف اداری پزشکی که بخشی از گردش کار روزانه پزشکان هستند، دست و پنجه نرم می کند. در معیار MedAlign برای ارزیابی اینکه هوش مصنوعی مولد چقدر می تواند کارهایی مانند خلاصه کردن سوابق سلامتی بیمار و جستجو در میان یادداشت ها را انجام دهد، GPT-4 در 35٪ موارد شکست خورد.
OpenAI و بسیاری دیگر از فروشندگان هوش مصنوعی مولد نسبت به اتکا به مدل های خود برای مشاوره پزشکی هشدار می دهند. اما بورکوفسکی و دیگران می گویند که می توانند کارهای بیشتری انجام دهند. بورکووسکی گفت: «تکیه صرفاً بر هوش مصنوعی مولد برای مراقبتهای بهداشتی میتواند منجر به تشخیصهای اشتباه، درمانهای نامناسب یا حتی موقعیتهای تهدیدکننده زندگی شود.
یان ایگر، که رهبری درمانهای هدایتشده با هوش مصنوعی را در مؤسسه پزشکی هوش مصنوعی دانشگاه دویسبورگ-اسن، که کاربردهای فناوری نوظهور برای مراقبت از بیمار را مطالعه میکند، با نگرانیهای بورکوفسکی همرسانی میکند. او معتقد است که در حال حاضر تنها راه مطمئن برای استفاده از هوش مصنوعی مولد در مراقبتهای بهداشتی، زیر نظر دقیق و مراقب یک پزشک است.
ایگر گفت: «نتایج ممکن است کاملاً اشتباه باشد، و حفظ آگاهی از این موضوع سختتر و سختتر میشود». "مطمئناً، هوش مصنوعی مولد را می توان به عنوان مثال برای پیش نوشتن نامه های تخلیه استفاده کرد. اما پزشکان وظیفه دارند آن را تحلیل کنند و تماس نهایی را برقرار کنند.»
هوش مصنوعی مولد می تواند کلیشه ها را تداوم بخشد
یکی از راههای مضری که هوش مصنوعی مولد در مراقبتهای بهداشتی میتواند باعث اشتباه شود، تداوم کلیشهها است.
در یک مطالعه در سال 2023 در پزشکی استنفورد، تیمی از محققان ChatGPT و دیگر رباتهای گفتگوی مولد مبتنی بر هوش مصنوعی را در مورد سؤالاتی در مورد عملکرد کلیه، ظرفیت ریه و ضخامت پوست آزمایش کردند. نویسندگان همکار دریافتند که نه تنها پاسخهای ChatGPT اغلب اشتباه بوده است، بلکه پاسخها شامل چندین باور نادرست طولانیمدت تقویتشده مبنی بر وجود تفاوتهای بیولوژیکی بین سیاهپوستان و سفیدپوستان است – نادرستیهایی که میدانند ارائهدهندگان پزشکی را به اشتباه در تشخیص مشکلات سلامتی سوق دادهاند.
نکته طنز این است که بیمارانی که بیشتر به واسطه هوش مصنوعی مولد برای مراقبت های بهداشتی مورد تبعیض قرار می گیرند، کسانی هستند که بیشتر از آن استفاده می کنند.
نظرسنجی Deloitte نشان داد افرادی که فاقد پوشش مراقبتهای بهداشتی هستند – افراد رنگین پوست، به طور کلی، طبق یک مطالعه KFF – مایلند هوش مصنوعی مولد را برای مواردی مانند پیدا کردن پزشک یا حمایت سلامت روان امتحان کنند. اگر توصیه های هوش مصنوعی با سوگیری خدشه دار شود، می تواند نابرابری در درمان را تشدید کند.
با این حال، برخی از کارشناسان استدلال می کنند که هوش مصنوعی مولد در این زمینه در حال بهبود است.
در یک مطالعه مایکروسافت که در اواخر سال 2023 منتشر شد، محققان گفتند که با استفاده از GPT-4 به دقت 90.2 درصدی در چهار معیار پزشکی چالش برانگیز دست یافتهاند. Vanilla GPT-4 نتوانست به این امتیاز برسد. اما، محققان میگویند، از طریق مهندسی سریع – طراحی اعلانهایی برای GPT-4 برای تولید خروجیهای خاص – آنها توانستند امتیاز مدل را تا 16.2 درصد افزایش دهند. (شایان ذکر است که مایکروسافت یک سرمایه گذار بزرگ در OpenAI است. )
فراتر از چت بات ها
اما سوال پرسیدن از یک چت بات تنها چیزی نیست که هوش مصنوعی مولد برای آن خوب است. برخی از محققان می گویند که تصویربرداری پزشکی می تواند از قدرت هوش مصنوعی مولد بهره زیادی ببرد.
در ماه جولای، گروهی از دانشمندان در مطالعهای که در Nature منتشر شد، از سیستمی به نام تعویق جریان کار بالینی مبتنی بر مکمل (CoDoC) رونمایی کردند. این سیستم به گونه ای طراحی شده است که بفهمد چه زمانی متخصصان تصویربرداری پزشکی باید برای تشخیص در مقابل تکنیک های سنتی به هوش مصنوعی اعتماد کنند. به گفته نویسندگان همکار، CoDoC بهتر از متخصصان عمل کرد در حالی که گردش کار بالینی را تا 66 درصد کاهش داد.
در ماه نوامبر، یک تیم تحقیقاتی چینی مدل Panda را که یک مدل هوش مصنوعی برای تشخیص ضایعات احتمالی پانکراس در اشعه ایکس استفاده میشود، به نمایش گذاشت. یک مطالعه نشان داد پاندا در طبقه بندی این ضایعات، که اغلب برای مداخله جراحی خیلی دیر تشخیص داده می شوند، بسیار دقیق است.
در واقع، Arun Thirunavukarasu، محقق بالینی در دانشگاه آکسفورد، گفت: "هیچ چیز منحصر به فردی" در مورد هوش مصنوعی مولد وجود ندارد که مانع استقرار آن در محیط های مراقبت های بهداشتی شود.
او گفت: «کاربردهای پیش پا افتادهتر فناوری هوش مصنوعی مولد در کوتاهمدت و میانمدت امکانپذیر است و شامل تصحیح متن، مستندسازی خودکار یادداشتها و حروف و آپشن های جستجوی بهبودیافته برای بهینهسازی سوابق الکترونیکی بیماران است. دلیلی وجود ندارد که فناوری هوش مصنوعی مولد – در صورت موثر بودن – نمی تواند فوراً در این نوع نقش ها به کار گرفته شود.
"علم دقیق"
اما در حالی که هوش مصنوعی مولد در حوزههای خاص و باریک پزشکی نویدبخش است، کارشناسانی مانند Borkowski به موانع فنی و انطباقهایی اشاره میکنند که قبل از اینکه هوش مصنوعی مولد به عنوان یک ابزار مراقبت بهداشتی کمکی مفید و قابل اعتماد باشد، باید برطرف شود.
بورکوفسکی گفت: «نگرانیهای مهم در خصوص حفظ حریم خصوصی و امنیتی استفاده از هوش مصنوعی مولد در مراقبتهای بهداشتی را احاطه کرده است. "ماهیت حساس داده های پزشکی و احتمال سوء استفاده یا دسترسی غیرمجاز، خطرات جدی را برای محرمانگی و اعتماد بیمار به سیستم مراقبت های بهداشتی ایجاد می کند. علاوه بر این، چشمانداز قانونی و قانونی پیرامون استفاده از هوش مصنوعی مولد در مراقبتهای بهداشتی همچنان در حال تحول است و سؤالات مربوط به مسئولیت، حفاظت از دادهها و عمل پزشکی توسط نهادهای غیرانسانی هنوز باید حل شود.
حتی Thirunavukarasu که از هوش مصنوعی مولد در مراقبتهای بهداشتی خوشبین است، او میگوید که باید «علم دقیق» پشت ابزارهایی وجود داشته باشد که بیمار رو به رو هستند.
او گفت: «به ویژه بدون نظارت مستقیم پزشک، باید کارآزماییهای تصادفیسازی شده عملی کنترلی وجود داشته باشد که مزایای بالینی را برای توجیه استقرار هوش مصنوعی مولد رو به بیمار نشان دهد.» "حکمرانی مناسب در آینده برای دریافت هرگونه آسیب پیش بینی نشده پس از استقرار در مقیاس ضروری است. "
اخیراً، سازمان بهداشت جهانی دستورالعملهایی را منتشر کرد که از این نوع علم و نظارت انسانی بر هوش مصنوعی مولد در مراقبتهای بهداشتی و همچنین معرفی حسابرسی، شفافیت و ارزیابیهای تاثیر بر این هوش مصنوعی توسط اشخاص ثالث مستقل حمایت میکند. هدف، سازمان جهانی بهداشت در دستورالعملهای خود، تشویق مشارکت گروههای متنوعی از مردم در توسعه هوش مصنوعی مولد برای مراقبتهای بهداشتی و فرصتی برای ابراز نگرانیها و ارائه نظرات در طول فرآیند خواهد بود.
بورکوفسکی گفت: «تا زمانی که نگرانیها به اندازه کافی برطرف نشود و تدابیر حفاظتی مناسب اعمال نشود، اجرای گسترده هوش مصنوعی مولد پزشکی ممکن است … به طور بالقوه برای بیماران و صنعت مراقبتهای بهداشتی به عنوان یک کل مضر باشد.»
ارسال نظر