إرشادات جديدة بشأن أخلاقيات وحوكمة الذكاء الاصطناعي في النماذج الكبيرة والمتعددة الوسائط

إصدار إرشادات جديدة بشأن أخلاقيات وحوكمة نماذج الذكاء الاصطناعي الكبيرة والمتعددة الوسائط – وهي تقنية ذكاء اصطناعي سريعة التطور، تُستخدم تطبيقاتها في مختلف مجالات الرعاية الصحية.

تتضمن الإرشادات أكثر من 40 توصية للحكومات وشركات التكنولوجيا ومقدمي الرعاية الصحية، لضمان الاستخدام الأمثل لنماذج الذكاء الاصطناعي لتعزيز صحة السكان وحمايتها.

تمتاز نماذج الذكاء الاصطناعي بقدرتها على معالجة مدخلات متنوعة مثل النصوص ومقاطع الفيديو والصور، وتوليد مخرجات متعددة، مع محاكاة أسلوب التواصل البشري وإتمام مهام غير مبرمجة مسبقًا. وتستمر وتيرة انتشار هذه النماذج بوتيرة غير مسبوقة، حيث باتت منصات عديدة منها – مثل ChatGPT وBard وBert – شائعة بين الجمهور منذ عام 2023.

وفي هذا السياق، صرّح أحد الخبراء في مجال العلوم قائلاً: “يمكن لتقنيات الذكاء الاصطناعي التوليدي أن تُحدث ثورة في الرعاية الصحية شريطة أن يلتزم مطورو هذه التقنيات ومنظموها ومستخدميها بمراعاة المخاطر المصاحبة لها بشكل كامل”. وأضاف: “نحتاج إلى معلومات وسياسات شفافة لإدارة عمليات تصميم نماذج الذكاء الاصطناعي وتطويرها واستعمالها لتحقيق نتائج صحية أفضل ومعالجة أوجه التفاوت المستمرة في الرعاية الصحية.”

الفوائد والمخاطر المحتملة

تسلط الإرشادات الضوء على خمسة تطبيقات رئيسية لنماذج الذكاء الاصطناعي في مجال الصحة، وهي:

1. التشخيص والرعاية السريرية: دعم الاستفسارات التي يقدمها المرضى.
2. الاستخدام الموجه من المريض: توجيه المرضى حول الأعراض والعلاج.
3. المهام الكتابية والإدارية: تسهيل توثيق وتلخيص زيارات المرضى.
4. التعليم الطبي: دعم التدريب الطبي والتمريضي من خلال محاكاة لقاءات المرضى.
5. البحث العلمي وتطوير العقاقير: تسريع عملية اكتشاف مركبات جديدة.

وعلى الرغم من الفوائد، هناك مخاطر تتعلق بإنتاج معلومات غير دقيقة أو متحيزة قد تؤثر على القرارات الصحية. وقد تتلقى النماذج تدريبًا على بيانات غير متوازنة، مما يؤدي إلى انحيازات متعلقة بالعرق أو الجنس أو العمر. كما أن هذه النماذج تواجه تحديات تتعلق بالأمن السيبراني، مما قد يؤثر على خصوصية معلومات المرضى وموثوقية الخوارزميات.

وتؤكد الإرشادات على ضرورة إشراك جميع أصحاب المصلحة – الحكومات، شركات التكنولوجيا، مقدمي الرعاية الصحية، المرضى، والمجتمع المدني – في عملية تطوير وتنظيم هذه التقنيات لضمان حوكمتها بشكل شامل وفعال.

توصيات رئيسية

تتضمن الإرشادات توصيات للحكومات التي تتحمل مسؤولية وضع المعايير اللازمة لتطوير واستخدام نماذج الذكاء الاصطناعي. ومن هذه التوصيات:

1. الاستثمار في البنية التحتية: توفير البنية التحتية اللازمة، مثل القدرات الحاسوبية ومجموعات البيانات العامة.
2. تطبيق سياسات ولوائح صارمة: التأكد من أن النماذج تلبي معايير أخلاقية وحقوقية تؤثر على كرامة الإنسان وخصوصيته.
3. تعيين هيئة تنظيمية: مسؤولية تقييم واعتماد نماذج الذكاء الاصطناعي المخصصة للرعاية الصحية.
4. إجراء عمليات تدقيق مستقلة: تنفيذ عمليات تدقيق وتقييم آثار شاملة، ونشر نتائجها للجمهور.

كما تتضمن الإرشادات توصيات لمطوري نماذج الذكاء الاصطناعي، حيث يجب عليهم:

1. إشراك جميع الأطراف المعنية: إشراك المستخدمين المحتملين ومهنيي الرعاية الصحية والمرضى في جميع مراحل التطوير لضمان الشفافية.
2. تصميم النماذج بدقة وموثوقية: ضمان تحقيق النماذج لأهداف واضحة تخدم النظام الصحي وتحترم حقوق المرضى، مع القدرة على توقع النتائج الثانوية المحتملة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *