يلجأ الناس بشكل متزايد إلى ChatGPT وأدوات الذكاء الاصطناعي الأخرى للحصول على المشورة الصحية. إنهم يستخدمونها لفهم الأعراض، وفك تشفير الرسائل الطبية، وفهم التشخيص، والبحث عن الطمأنينة قبل المواعيد، وإعداد الأسئلة للأطباء.
هذا التحول ليس مفاجئا. لقد بحث الناس دائمًا عبر الإنترنت عن المعلومات الصحية، لكن أدوات الذكاء الاصطناعي مختلفة. إنهم يتحدثون، وشخصيون، ومتاحون دائمًا، وغالبًا ما يبدون واثقين من إجاباتهم. إن العديد من العوامل نفسها التي تدفع الاهتمام بالذكاء الاصطناعي للعلاج تعمل الآن على تشكيل كيفية استخدام الناس له من أجل الصحة.
كيف يستخدم الناس الذكاء الاصطناعي من أجل الصحة؟
يجب على مقدمي الرعاية الصحية الآن أن يفترضوا أن أي مريض يرونه ربما يكون قد طلب ChatGPT بالفعل قبل مجيئه.
جنيفر هينكل، مستشارة الرعاية الصحية ورئيسة شركة Signa Sciences
تقول جينيفر هينكل، مستشارة الرعاية الصحية ورئيسة شركة Signa Sciences: “إن استخدام الذكاء الاصطناعي موجود في كل مكان”. “يجب على مقدمي الرعاية الصحية الآن أن يفترضوا أن أي مريض يرونه ربما يكون قد سأل بالفعل ChatGPT قبل مجيئه – وأنهم سيسألونه مرة أخرى بعد مغادرتهم.”
لقد رأيت الكثير من الادعاءات بأن ChatGPT هو الآن المنفذ الأول للأسئلة الصحية، ولكن ما الذي يسأله الناس بالفعل؟ تقول رانيا حبش، الطبيبة والمديرة الطبية في شركة Helfie AI: “إننا نرى المرضى يستخدمونه بشكل أساسي للأسئلة حول أدويتهم، وأعراضهم، وللقراءة عن تشخيصاتهم”.
من المؤكد أن الأشخاص استخدموا الإنترنت دائمًا للحصول على نصائح صحية وقاموا بالبحث عن أعراضهم على Google. لكن مع الذكاء الاصطناعي، تبدو الأمور مختلفة. يستخدم المرضى إلى حد كبير ChatGPT كإصدار أكثر تحادثًا من Google. يقول حبش: “يبدو ChatGPT أكثر خصوصية لأنه يستجيب لأنماط اللغة الطبيعية”. “يبدو وكأنه صديقك، ويبدو واثقًا.”
من السهل معرفة سبب جاذبية أداة مثل ChatGPT. يبدو الأمر ودودًا، ويعتمد على كميات هائلة من المعلومات، ويمكن الوصول إليه بسهولة. يلجأ العديد من الأشخاص إليه بالفعل للعمل والتخطيط والمشورة الشخصية، لذا فإن طرح بعض الأسئلة المتعلقة بالصحة يمكن أن يبدو وكأنه امتداد طبيعي لكيفية استخدامهم له يومًا بعد يوم بدلاً من اتخاذ قرار متعمد باعتماد تطبيق أو نظام أساسي صحي جديد.
حيث يمكن للذكاء الاصطناعي أن يساعد حقًا
يقول هينكل: “هناك قيمة حقيقية في أن يتمكن المرضى من إجراء ما يبدو وكأنه محادثة خاصة حول المشكلات الصحية مع آلة تمت برمجتها لتكون “مفيدة” وإظهار “الاهتمام””.
وتعتقد أيضًا أن هناك شيئًا مريحًا في الوصول المستمر إلى المعلومات. قالت لي: “سواء كان الوقت في الثانية صباحًا أو بين التاسعة صباحًا والخامسة مساءً، يستطيع الناس الحصول على الإجابات”. “نحن نعلم أن النتائج الصحية تكون أفضل عندما يتم إبلاغ المرضى بصحتهم والتفاعل معها، لذلك إذا ساعدهم ChatGPT على تحقيق ذلك، أرى أن ذلك له تأثير إيجابي.”
اتفق كلا الخبيرين على أنه عند استخدامها بعناية، يمكن لأدوات مثل ChatGPT أن تساعد الأشخاص على الشعور بمزيد من المعرفة والمشاركة في صحتهم. يقول هينكل: “في معظم الحالات، يكون حصول المرضى على مزيد من المعلومات مفيدًا ويتماشى مع النتائج الصحية المحسنة”. “عندما يفهم المرضى صحتهم بشكل أفضل، يصبحون أكثر قدرة على تبني السلوكيات التي تساعدهم على البقاء بصحة جيدة.”
لقد تحدثت إلى العديد من الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي بانتظام للحصول على المشورة الصحية، وقد رددوا هذا الرأي. أخبرتني صوفي (التي تم تغيير اسمها هنا) أنها كانت تعتمد على ChatGPT أثناء فترة الحمل المبكرة، خاصة بعد إجراء فحص مرهق خضعت له بمفردها.
قالت: “كان تحميل ملاحظاتي وشرح كل شيء مفيدًا ومطمئنًا للغاية”. “لم أستوعب حقًا ما قاله الأطباء في ذلك الوقت. لقد كان الإطار العاطفي بعد ذلك مفيدًا.” وقالت أيضًا إنها اعتمدت على ChatGPT في مواعيد المتابعة، مما أعطاها إرشادات بشأن ما يمكن توقعه وما هي المعلومات المهمة التي يجب توصيلها.
يوافق حبش على أن دور “المترجم” هذا هو المكان الذي يتألق فيه الذكاء الاصطناعي. وتقول: “يمكن أن يحول هذا المصطلح المصطلحات الطبية إلى لغة واضحة”. “هذا يساعد المرضى ويساعد الأطباء أيضًا. نريد التأكد من أن مرضانا لديهم فهم جيد لحالتهم.”
ويشعر خبراء الأضرار بالقلق
نحن لا نقوم بإضفاء الطابع الديمقراطي على المعلومات إذا كان الأشخاص الذين يعرفون كيفية طرح الأسئلة يحصلون على إجابات كاملة فقط.
جنيفر هينكل، مستشارة الرعاية الصحية ورئيسة شركة Signa Sciences
نفس السمات التي تجعل أدوات الذكاء الاصطناعي جذابة، مثل الثقة والطلاقة والطمأنينة، هي أيضًا المكان الذي قد تكمن فيه بعض المخاطر.
قال لي هينكل: “أرى بعض المخاطر الكبرى”. الأول هو أن جودة المعلومات تعتمد بشكل كبير على كيفية طرح الأسئلة. وتوضح قائلة: “إن شمولية المعلومات يرتبط بتطور الرسالة”. “نحن لا نضفي طابعًا ديمقراطيًا على المعلومات إذا حصل الأشخاص الذين يعرفون كيفية طرح الأسئلة على إجابات كاملة فقط.”
إن فكرة أنك تحتاج إلى الموجه الصحيح للحصول على إجابة مفيدة تأتي مرارًا وتكرارًا مع الذكاء الاصطناعي. لقد رأيت ما يسمى بخبراء الذكاء الاصطناعي يلومون المستخدمين على النتائج السيئة، بحجة أن استراتيجية الحث الخاصة بهم ليست جيدة بما فيه الكفاية – في كثير من الأحيان أثناء محاولتهم بيع دورة تدريبية أو إطار عمل لإصلاحها. لكن هذا يغفل القضية الحقيقية. لا أرى ذلك على أنه فشل من جانب المستخدم، بل على أنه عدم تطابق بين كيفية بيع الذكاء الاصطناعي لنا وكيفية عمله فعليًا. تُباع أدوات الذكاء الاصطناعي كأنظمة “اسأل أي شيء”، دون ذكر أفضل الممارسات التي تحث عند التسجيل، لذلك ليس من المنطقي إلقاء اللوم على الأشخاص لعدم معرفتهم بالقواعد التي لم يتم إخبارهم بوجودها من قبل.
الخطر الثاني هو أكثر وضوحا. نحن نعلم أن أدوات الذكاء الاصطناعي تخطئ في الأمور. أحيانا جداً خطأ. يمكن أن يكون ذلك بسبب مصادر خاطئة، أو معلومات قديمة، أو الهلوسة، والتي تحدث عندما يقدم النظام معلومات غير صحيحة بثقة.
يمكن أن يحدث ذلك في جميع أنواع السياقات. ولكن ما يميز الصحة هو أنه على الرغم من أن الذكاء الاصطناعي يمكنه جمع كميات كبيرة من المعلومات، إلا أنه ليس طبيبًا ولا يمكنه التشخيص بشكل مفيد.
أخبرتني كلير (التي تم تغيير اسمها) أنها لاحظت نموًا في أنفها، وأثناء انتظارها لرؤية طبيب الأمراض الجلدية، قامت بتحميل صورة على موقع ChatGPT لتسألها عن هذا النمو. وتقول: “لقد قيل إنه إما سرطان الجلد أو شيء غير ضار”. “وهذا لم يكن مفيدًا جدًا.”
“عندما قلت: هل تعتقد أنه يمكن أن يكون مجرد ثؤلول؟” ثم قال “نعم، يمكن أن يكون ثؤلول”. أخبرتني أن ChatGPT لم يسجل أي نقاط طبيب هناك.
نحن نعلم أن موافقة ChatGPT على كل ما يقوله المستخدم يمثل مشكلة. ولكن يمكن أن يكون لها عواقب بعيدة المدى عندما يتعلق الأمر بالتعامل مع الصحة العقلية والجسدية.
يقول حبش: “تبدو نصائح الذكاء الاصطناعي ودية وواثقة. وهذه نعمة ونقمة”. “الإجابة الواثقة ليست مثل الإجابة الصحيحة، وهذا يمكن أن يؤخر الرعاية.”
عندما يتعلق الأمر بالتشخيص، فإن السياق مهم، وهو شيء غالبًا ما يفتقر إليه الذكاء الاصطناعي. ويرجع ذلك جزئيًا إلى أن المستخدم لا يمكنه تقديم كل التفاصيل التي قد يأخذها الطبيب في الاعتبار بشكل واقعي، وجزئيًا لأن الذكاء الاصطناعي لا يمتلك عملية تشخيصية أو تجربة سريرية حية لمعرفة الإشارات الأكثر أهمية.
يوضح هينكل: “يمكن أن تعني الأعراض نفسها أشياء مختلفة جدًا اعتمادًا على العمر والجنس وعوامل الخطر”. “لكن الذكاء الاصطناعي لا يعرف الخطر الأساسي إلا إذا عرف من يسأل”.
يضيف حبش أن الأطباء يدمجون الفروق الدقيقة بشكل غريزي. “ألم الصدر، وعلامات السكتة الدماغية، والألم المرتبط بالحمل، كل هذا يعتمد على السياق والفحص والقياسات. والمحادثة وحدها لا يمكنها التقاط ذلك”.
أثار كلا الخبراء مخاوف بشأن محو الأمية الصحية والإنصاف. يقول هينكل: “من المرجح أن يمنحك انخفاض المعرفة الصحية إجابات أكثر سطحية”. “أولئك الذين يفهمون حالتهم بالفعل ويعرفون ما يجب أن يسألوه قد يستفيدون. أما أولئك الذين يشعرون بالارتباك حقًا فقد يتخلفون عن الركب”. وهذا يخلق فجوة مثيرة للقلق إذا تم وضع أدوات الذكاء الاصطناعي كاختصار للوصول إلى الرعاية الصحية بشكل أفضل.
كما أشار حبش إلى القلق والأمراض المزمنة كعوامل خطر. “يواجه الأشخاص الذين يعانون من حالات متداخلة وأدوية متعددة مخاطر أكبر من النصائح العامة. يمكن أن تبدو الإجابة الواثقة أكثر تحديدًا مما هي عليه الآن.”
ما يجب مراعاته إذا كنت تستخدم الذكاء الاصطناعي من أجل الصحة
يقترح الخبراء التعامل مع الذكاء الاصطناعي كأدوات داعمة، وليس كبدائل، والتعامل بشكل متعمد مع كيفية استخدامك لها.
افهم كيف يعملون
لا تحتاج إلى معرفة الكثير. غالبًا ما يبدو الذكاء الاصطناعي صحيحًا بثقة (حتى عندما لا يكون كذلك) ويعتمد على كميات هائلة من المعلومات. يقول هينكل إنه من المهم أن تدرك أن أدوات مثل ChatGPT غالبًا ما تقدم معلومات بناءً على التردد. وتحذر قائلة: “إذا ظهر شيء ما في كثير من الأحيان في بيانات التدريب، فقد يرتفع إلى القمة، حتى لو كان خاطئًا”.
تحقق من النصائح القديمة
وبالمثل، من المفيد أن نتذكر أن أدوات الذكاء الاصطناعي تتعلم من المعلومات التي قد تكون قديمة جدًا. غالبًا ما تكون هناك أيضًا نقاط قطع لبيانات التدريب، مما يعني أنه حتى بعض أحدث المعلومات المتوفرة قد تكون منذ بضعة أشهر مضت وقد لا تعكس معايير الرعاية الحالية. يقول هينكل: “إن حسن التوقيت مهم في مجال الصحة”.
اطرح أسئلة أفضل، لكن كن حذرًا
مزيد من التفاصيل في المطالبات الأولية الخاصة بك يمكن أن تساعد، ولكن حتى الحيل المحفزة ليست شبكة أمان. يقول هينكل: “تحقق من كل شيء”.
انتبه للخصوصية
لا نعرف على وجه اليقين كيف تستخدم شركات الذكاء الاصطناعي بياناتك حاليًا أو قد تستخدمها في المستقبل. ولكن من المفيد التوقف للتفكير فيما إذا كنت مرتاحًا لمشاركة معلومات حساسة للغاية حول صحتك.
استخدم الذكاء الاصطناعي للمهام ذات المخاطر الأقل
ويوصي حبش باستخدام أدوات الذكاء الاصطناعي للحصول على المشورة بشأن النظام الغذائي وممارسة الرياضة وتخفيف التوتر وفهم الاختبارات أو الأدوية، ولكن ليس للتشخيص أو تغيير العلاج.
انتبه لجسمك
والأهم من ذلك، لا تأخذ نصيحة ChatGPT فوق حدسك. يقول حبش: “إذا كانت الأعراض مفاجئة أو شديدة أو تزداد سوءًا، فهذا يعني أن جسمك يطلب منك الحصول على المساعدة”.

التعليقات