الذكاء الاصطناعي التوليدي قادم من أجل الرعاية الصحية، ولكن ليس الجميع سعداء بذلك

اعتمادات الصورة: ناديجدا فيدرونوفا / جيتي / جيتي إيماجيس

إن الذكاء الاصطناعي التوليدي، الذي يمكنه إنشاء وتحليل الصور والنصوص والصوت ومقاطع الفيديو والمزيد، يشق طريقه بشكل متزايد إلى الرعاية الصحية، بدعم من شركات التكنولوجيا الكبرى والشركات الناشئة على حد سواء.

يتعاون Google Cloud، قسم الخدمات والمنتجات السحابية في Google، مع Highmark Health، وهي شركة رعاية صحية غير ربحية مقرها بيتسبرغ، على أدوات الذكاء الاصطناعي التوليدية المصممة لتخصيص تجربة تناول المرضى. يقول قسم AWS في أمازون إنه يعمل مع عملاء لم يذكر أسماءهم على طريقة لاستخدام الذكاء الاصطناعي التوليدي للتحليل قواعد البيانات الطبية لـ “المحددات الاجتماعية للصحة”. وتساعد Microsoft Azure في بناء نظام ذكاء اصطناعي مولد لـ Providence، شبكة الرعاية الصحية غير الهادفة للربح، لفرز الرسائل المرسلة من المرضى تلقائيًا إلى مقدمي الرعاية.

تشمل شركات الذكاء الاصطناعي الناشئة البارزة في مجال الرعاية الصحية شركة Ambience Healthcare، التي تعمل على تطوير تطبيق ذكاء اصطناعي توليدي للأطباء؛ نابلة، مساعد الذكاء الاصطناعي المحيطي للممارسين؛ وAbridge، التي تنشئ أدوات تحليلية للتوثيق الطبي.

ينعكس الحماس الواسع للذكاء الاصطناعي التوليدي في الاستثمارات في جهود الذكاء الاصطناعي التوليدي التي تستهدف الرعاية الصحية. بشكل جماعي، نجح الذكاء الاصطناعي التوليدي في الشركات الناشئة في مجال الرعاية الصحية في جمع عشرات الملايين من الدولارات من رأس المال الاستثماري حتى الآن، وتقول الغالبية العظمى من المستثمرين في مجال الصحة إن الذكاء الاصطناعي التوليدي قد حقق نجاحًا كبيرًا. تأثرت بشكل كبير استراتيجياتهم الاستثمارية.

لكن كلا من المتخصصين والمرضى مختلطون بشأن ما إذا كان الذكاء الاصطناعي التوليدي الذي يركز على الرعاية الصحية جاهزًا لوقت الذروة.

قد لا يكون الذكاء الاصطناعي التوليدي هو ما يريده الناس

في استطلاع ديلويت الأخير، قال حوالي نصف المستهلكين الأمريكيين (53٪) فقط إنهم يعتقدون أن الذكاء الاصطناعي التوليدي يمكن أن يحسن الرعاية الصحية – على سبيل المثال، من خلال جعلها أكثر سهولة أو تقليل أوقات انتظار المواعيد. وقال أقل من النصف إنهم يتوقعون أن يجعل الذكاء الاصطناعي الإنتاجي الرعاية الطبية ميسورة التكلفة.

ولا يعتقد أندرو بوركوسكي، كبير مسؤولي الذكاء الاصطناعي في شبكة فيرجينيا صن شاين للرعاية الصحية، وهي أكبر نظام صحي تابع لوزارة شؤون المحاربين القدامى في الولايات المتحدة، أن هذا التشاؤم غير مبرر. وحذر بوركوفسكي من أن نشر الذكاء الاصطناعي التوليدي قد يكون سابق لأوانه بسبب قيوده “الكبيرة” – والمخاوف بشأن فعاليته.

وقال لـ TechCrunch: “إحدى المشكلات الرئيسية المتعلقة بالذكاء الاصطناعي التوليدي هي عدم قدرته على التعامل مع الاستفسارات الطبية المعقدة أو حالات الطوارئ”. “إن قاعدتها المعرفية المحدودة – أي غياب المعلومات السريرية الحديثة – والافتقار إلى الخبرة البشرية تجعلها غير مناسبة لتقديم مشورة طبية شاملة أو توصيات علاجية.”

READ  ترتفع الأسهم بعد إشارات بنك الاحتياطي الفيدرالي إلى اقتراب زيادات أسعار الفائدة على نهايتها

تشير العديد من الدراسات إلى وجود مصداقية لهذه النقاط.

في ورقة بحثية نشرت في مجلة JAMA Pediatrics، كان روبوت المحادثة المولد بالذكاء الاصطناعي التابع لشركة OpenAI، ChatGPT، والذي قامت بعض منظمات الرعاية الصحية بتجربته لحالات استخدام محدودة، وجدت لارتكاب الأخطاء تشخيص أمراض الأطفال بنسبة 83% من الحالات. و في اختبارات GPT-4 من OpenAI كمساعد تشخيصي، لاحظ الأطباء في مركز Beth Israel Deaconess الطبي في بوسطن أن النموذج صنف التشخيص الخاطئ كإجابة أولى مرتين تقريبًا من أصل ثلاثة.

يعاني الذكاء الاصطناعي التوليدي اليوم أيضًا من المهام الإدارية الطبية التي تعد جزءًا لا يتجزأ من سير العمل اليومي للأطباء. في معيار MedAlign لتقييم مدى قدرة الذكاء الاصطناعي على أداء أشياء مثل تلخيص السجلات الصحية للمرضى والبحث عبر الملاحظات، فشل GPT-4 في 35% من الحالات.

OpenAI والعديد من بائعي الذكاء الاصطناعي التوليدي الآخرين ويحذرون من الاعتماد على نماذجهم في الحصول على المشورة الطبية. لكن بوركوفسكي وآخرين يقولون إن بإمكانهم فعل المزيد. وقال بوركوفسكي: “الاعتماد فقط على الذكاء الاصطناعي التوليدي في الرعاية الصحية يمكن أن يؤدي إلى تشخيصات خاطئة أو علاجات غير مناسبة أو حتى مواقف تهدد الحياة”.

ويشارك جان إيجر، الذي يقود العلاجات الموجهة بالذكاء الاصطناعي في معهد الذكاء الاصطناعي في الطب بجامعة دويسبورج إيسن، والذي يدرس تطبيقات التكنولوجيا الناشئة لرعاية المرضى، مخاوف بوركوفسكي. وهو يعتقد أن الطريقة الآمنة الوحيدة لاستخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية حاليًا هي تحت المراقبة الدقيقة والمراقبة للطبيب.

وقال إيجر: “قد تكون النتائج خاطئة تمامًا، ويصبح الحفاظ على الوعي بهذا الأمر أكثر صعوبة”. “بالتأكيد، يمكن استخدام الذكاء الاصطناعي التوليدي، على سبيل المثال، في الكتابة المسبقة لخطابات التسريح. لكن الأطباء يتحملون مسؤولية التحقق من الأمر واتخاذ القرار النهائي.

يمكن للذكاء الاصطناعي التوليدي أن يديم الصور النمطية

إحدى الطرق الضارة بشكل خاص التي يمكن للذكاء الاصطناعي التوليدي في مجال الرعاية الصحية أن يخطئ بها هي إدامة الصور النمطية.

في دراسة أجريت عام 2023 في جامعة ستانفورد للطب، اختبر فريق من الباحثين ChatGPT وغيره من روبوتات الدردشة المولدة بالذكاء الاصطناعي حول أسئلة حول وظائف الكلى وسعة الرئة وسمك الجلد. وجد المؤلفون المشاركون أن إجابات ChatGPT لم تكن خاطئة في كثير من الأحيان فحسب، بل تضمنت الإجابات أيضًا العديد من المعتقدات غير الصحيحة الراسخة منذ فترة طويلة بأن هناك اختلافات بيولوجية بين الأشخاص السود والبيض – وهي أكاذيب من المعروف أنها دفعت مقدمي الخدمات الطبية إلى التشخيص الخاطئ للمشكلات الصحية.

READ  الرئيس التنفيذي لشركة Microstrategy يبدد الشائعات بأن الشركة تبيع البيتكوين بهدوء - أخبار بيتكوين مميزة

المفارقة هي أن المرضى الذين من المرجح أن يتعرضوا للتمييز من قبل الذكاء الاصطناعي التوليدي في مجال الرعاية الصحية هم أيضًا أولئك الذين من المرجح أن يستخدموه.

الأشخاص الذين يفتقرون إلى تغطية الرعاية الصحية – الناس الملونين، إلى حد كبير، وفقًا لدراسة أجرتها مؤسسة KFF – أكثر استعدادًا لتجربة الذكاء الاصطناعي التوليدي لأشياء مثل العثور على طبيب أو دعم الصحة العقلية، حسبما أظهر استطلاع ديلويت. إذا شابت توصيات الذكاء الاصطناعي التحيز، فقد يؤدي ذلك إلى تفاقم عدم المساواة في العلاج.

ومع ذلك، يرى بعض الخبراء أن الذكاء الاصطناعي التوليدي يتحسن في هذا الصدد.

وفي دراسة لمايكروسوفت نشرت أواخر عام 2023، وقال الباحثون إنهم حققوا دقة بنسبة 90.2% على أربعة معايير طبية صعبة باستخدام GPT-4. لم تتمكن Vanilla GPT-4 من الوصول إلى هذه النتيجة. لكن، كما يقول الباحثون، من خلال الهندسة السريعة – تصميم موجهات لـ GPT-4 لإنتاج مخرجات معينة – تمكنوا من تعزيز نتيجة النموذج بنسبة تصل إلى 16.2 نقطة مئوية. (من الجدير بالذكر أن مايكروسوفت هي مستثمر رئيسي في OpenAI.)

ما وراء روبوتات الدردشة

لكن طرح سؤال على برنامج الدردشة الآلي ليس هو الشيء الوحيد الذي يفيد فيه الذكاء الاصطناعي التوليدي. يقول بعض الباحثين أن التصوير الطبي يمكن أن يستفيد بشكل كبير من قوة الذكاء الاصطناعي التوليدي.

وفي يوليو/تموز، كشفت مجموعة من العلماء عن نظام يسمى cالتأجيل القائم على التكاملية لسير العمل السريري (CoDoC)، في دراسة نشرت في مجلة Nature. تم تصميم النظام لمعرفة متى يجب على متخصصي التصوير الطبي الاعتماد على الذكاء الاصطناعي في التشخيص مقابل التقنيات التقليدية. كان أداء CoDoC أفضل من المتخصصين مع تقليل سير العمل السريري بنسبة 66%، وفقًا للمؤلفين المشاركين.

وفي نوفمبر أ فريق البحث الصيني التجريبي الباندا، نموذج الذكاء الاصطناعي المستخدم للكشف عن آفات البنكرياس المحتملة في الأشعة السينية. أ أظهرت الدراسة يجب أن يكون الباندا دقيقًا للغاية في تصنيف هذه الآفات، والتي غالبًا ما يتم اكتشافها بعد فوات الأوان للتدخل الجراحي.

في الواقع، قال آرون ثيرونافوكاراسو، زميل الأبحاث السريرية في جامعة أكسفورد، إنه “لا يوجد شيء فريد” في الذكاء الاصطناعي التوليدي الذي يحول دون نشره في أماكن الرعاية الصحية.

READ  انخفضت تكلفة الطعام ، لكن فواتير البقالة لا تزال مرتفعة. إليكم السبب

“إن المزيد من التطبيقات الدنيوية لتكنولوجيا الذكاء الاصطناعي التوليدي ممكنة في على المدى القصير والمتوسط، وتشمل تصحيح النص والتوثيق التلقائي للملاحظات والخطابات وتحسين ميزات البحث لتحسين سجلات المرضى الإلكترونية. “لا يوجد سبب يمنع نشر تكنولوجيا الذكاء الاصطناعي التوليدي – إذا كانت فعالة – في هذه الأنواع من الأدوار على الفور.

“علم صارم”

ولكن في حين أن الذكاء الاصطناعي التوليدي يُظهر نتائج واعدة في مجالات محددة وضيقة من الطب، يشير الخبراء مثل بوركوفسكي إلى العوائق التقنية والامتثالية التي يجب التغلب عليها قبل أن يصبح الذكاء الاصطناعي التوليدي مفيدًا – وموثوقًا به – كأداة رعاية صحية مساعدة شاملة.

وقال بوركوفسكي: “تحيط مخاوف كبيرة تتعلق بالخصوصية والأمن باستخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية”. “إن الطبيعة الحساسة للبيانات الطبية واحتمال إساءة استخدامها أو الوصول إليها بشكل غير مصرح به تشكل مخاطر شديدة على سرية المريض وثقته في نظام الرعاية الصحية. علاوة على ذلك، لا يزال المشهد التنظيمي والقانوني المحيط باستخدام الذكاء الاصطناعي التوليدي في الرعاية الصحية يتطور، ولا تزال الأسئلة المتعلقة بالمسؤولية وحماية البيانات وممارسة الطب من قبل كيانات غير بشرية بحاجة إلى حل.

حتى ثيرونافوكاراسو، المتفائل فيما يتعلق بالذكاء الاصطناعي التوليدي في الرعاية الصحية، يقول إنه يجب أن يكون هناك “علم صارم” وراء الأدوات التي تواجه المريض.

وقال: “لا سيما بدون إشراف طبي مباشر، يجب أن تكون هناك تجارب مراقبة عشوائية عملية تظهر فائدة سريرية لتبرير نشر الذكاء الاصطناعي التوليدي الذي يواجه المريض”. “إن المضي قدمًا بالحوكمة السليمة أمر ضروري للتغلب على أي أضرار غير متوقعة بعد النشر على نطاق واسع.”

أصدرت منظمة الصحة العالمية مؤخرًا مبادئ توجيهية تدعو إلى هذا النوع من العلوم والرقابة البشرية على الذكاء الاصطناعي التوليدي في الرعاية الصحية بالإضافة إلى إدخال التدقيق والشفافية وتقييمات التأثير على هذا الذكاء الاصطناعي من قبل أطراف ثالثة مستقلة. الهدف، الذي تحدده منظمة الصحة العالمية في مبادئها التوجيهية، هو تشجيع المشاركة من مجموعة متنوعة من الناس في تطوير الذكاء الاصطناعي التوليدي للرعاية الصحية وفرصة للتعبير عن المخاوف وتقديم المدخلات طوال العملية.

وقال بوركوفسكي: “إلى أن يتم معالجة المخاوف بشكل مناسب ووضع الضمانات المناسبة، فإن التنفيذ الواسع النطاق للذكاء الاصطناعي الطبي قد يكون … ضارًا للمرضى وصناعة الرعاية الصحية ككل”.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *