تحول نحو تخفيف التنظيم
في السادس من يناير 2026، أصدرت إدارة الغذاء والدواء الأمريكية (FDA) وثيقتين محدّثتين نهائيتين للتوجيهات تمثلان أهم تحول في تنظيم الذكاء الاصطناعي في الأجهزة الطبية خلال السنوات الأخيرة. تسحب هذه التوجيهات فعلياً رقابة FDA عن فئتين سريعتي النمو من تقنيات الصحة العاملة بالذكاء الاصطناعي: برمجيات دعم القرار السريري (CDS) وأجهزة المستهلكين القابلة للارتداء.
التوقيت ليس مصادفة. يتماشى هذا التحول مع الفلسفة التنظيمية الأوسع للإدارة الحالية، التي أولت الأولوية لتقليل ما تصفه بالعوائق البيروقراطية أمام الابتكار التكنولوجي. أشار مفوض FDA الدكتور Marty Makary إلى هذا التحول خلال مقابلة مع Fox Business في نفس اليوم، مؤكداً نية الوكالة في تخفيف وتوضيح الرقابة في مجالي العافية والصحة الرقمية. لكن التداعيات تتجاوز الأيديولوجيا السياسية بكثير. تعيد التوجيهات تعريف أنظمة الذكاء الاصطناعي التي تعتبرها FDA “أجهزة طبية” خاضعة لسلطتها التنظيمية، مما قد يزيل الرقابة عن أدوات تؤثر مباشرة على القرارات السريرية وسلوكيات المستهلكين الصحية.
بالنسبة لصناعة التكنولوجيا الطبية — التي شهدت استحواذ الشركات العاملة بالذكاء الاصطناعي على 62% من أموال رأس المال الاستثماري في تمويل الصحة الرقمية خلال 2025، بإجمالي يقارب 4 مليارات دولار — فإن التوجيهات مرحب بها بشكل عام. الشركات التي أمضت سنوات في التنقل عبر عملية المراجعة قبل التسويق لدى FDA لأجهزة الذكاء الاصطناعي تجد الآن أن بعض منتجاتها قد لا تتطلب مراجعة على الإطلاق. كما يواجه الداخلون الجدد حواجز أقل، مما قد يسرّع الابتكار والمنافسة.
بالنسبة للمدافعين عن سلامة المرضى، تثير التوجيهات مخاوف عميقة. فئات أنظمة الذكاء الاصطناعي التي يتم تحريرها من التنظيم ليست تطبيقات هامشية — فهي تشمل أدوات تقدم توصيات علاجية للأطباء وتراقب العلامات الحيوية للمستهلكين. إزالة هذه الأدوات من رقابة FDA يعني أنه لن تقوم أي وكالة فيدرالية بتقييم سلامتها أو دقتها أو موثوقيتها بشكل منهجي قبل وصولها إلى السوق.
السؤال المحوري هو ما إذا كانت FDA قد وجدت التوازن الصحيح بين تمكين الابتكار وحماية المرضى — أم أنها مالت بشكل مفرط نحو الابتكار في وقت لا تزال فيه قدرات الذكاء الاصطناعي وقيوده في الرعاية الصحية غير مفهومة بشكل كافٍ.
دعم القرار السريري: الإعفاء الجديد
تنقّح توجيهات FDA المحدّثة لبرمجيات دعم القرار السريري — التي تحل محل نسخة 2022 — تفسير الحالات التي تُستثنى فيها وظائف برمجيات CDS من تعريف الجهاز الطبي بموجب القسم 520(o)(1)(E) من القانون الفيدرالي للغذاء والدواء ومستحضرات التجميل، كما عدّله 21st Century Cures Act. بموجب هذا القانون، لا تُعد برمجية CDS جهازاً إذا استوفت أربعة معايير: ألا تحلل الصور الطبية أو الإشارات أو الأنماط من أجهزة التشخيص (المعيار 1)؛ وأن تعرض أو تحلل أو تطبع معلومات طبية (المعيار 2)؛ وأن تدعم أو تقدم توصيات لمهني الرعاية الصحية حول الوقاية أو التشخيص أو العلاج (المعيار 3)؛ وأن تمكّن الطبيب من مراجعة أساس تلك التوصيات بشكل مستقل (المعيار 4).
التغيير الأكثر أهمية في توجيهات 2026 يتعلق بموقف FDA من التوصيات الفردية. سابقاً، اتخذت الوكالة موقفاً مفاده أن برمجيات CDS التي تقدم توصية واحدة فقط — بدلاً من خيارات متعددة — لا يمكن أن تستوفي المعيار 4، لأنه لم يكن هناك ما يمكن للطبيب تقييمه بشكل مستقل سوى مخرج يقبله أو يرفضه. التوجيهات المحدّثة تعكس هذا الموقف: ستمارس FDA الآن سلطتها التقديرية في إنفاذ القانون لأدوات CDS التي تقدم مخرجاً واحداً حيث تكون توصية واحدة فقط مناسبة سريرياً، طالما استوفت الأداة معايير CDS الأخرى غير المتعلقة بالأجهزة. على سبيل المثال، البرمجية التي توصي بدواء محدد معتمد من FDA ليأخذه الطبيب بعين الاعتبار بناءً على أعراض المريض وتاريخه الطبي ستقع الآن خارج تصنيف الأجهزة.
كما أزالت التوجيهات قيد اتخاذ القرار في الوقت الحرج من المعيار 3، لكنها أضافته كعنصر في المعيار 4، متخذة موقفاً مفاده أن البرمجية قد لا تسمح بمراجعة مستقلة إذا كانت مخصصة لاتخاذ قرارات في الوقت الحرج. الأثر العملي هو إعفاء فئة أوسع من الأدوات العاملة بالذكاء الاصطناعي التي تقدم إرشادات سريرية دون معالجة بيانات طبية معقدة كالصور أو الإشارات أو المعلومات الجينومية.
يبقى معيار “قابلية التحقق المستقل” هو المبدأ التقييدي الرئيسي. نظرية FDA هي أنه عندما يستطيع مهني الرعاية الصحية مراجعة وتقييم أساس توصية الذكاء الاصطناعي — بفحص نفس البيانات التي حللها الذكاء الاصطناعي وتطبيق حكمه السريري الخاص — فإن المهني يعمل كنقطة تفتيش بشرية للسلامة تجعل المراجعة التنظيمية قبل التسويق غير ضرورية.
يجادل المنتقدون بأن هذه النظرية لا تأخذ في الاعتبار واقع الممارسة السريرية. أظهرت الأبحاث حول التحيز الآلي في الرعاية الصحية أن الأطباء يميلون إلى قبول توصيات الذكاء الاصطناعي دون تقييم نقدي، خاصة عندما يكون سجل الذكاء الاصطناعي موثوقاً بشكل عام. وجدت دراسة في علم الأمراض الحاسوبي معدل تحيز آلي بنسبة 7% حيث تم التراجع عن تقييمات صحيحة في البداية بسبب نصائح خاطئة من الذكاء الاصطناعي. كما حذرت أبحاث أخرى من “تراجع المهارات” — أظهرت دراسة على أطباء الجهاز الهضمي الذين يستخدمون أدوات الذكاء الاصطناعي أن الممارسين أصبحوا أقل مهارة في تحديد الأورام الحميدة بشكل مستقل. إذا كان معيار “قابلية التحقق المستقل” موجوداً على الورق فقط وليس في الممارسة، فإن المبرر الأمني للإعفاء يتقوض.
اتخذت الجمعية الطبية الأمريكية (American Medical Association) موقفاً متوازناً، حيث تدعم الإطار العام لدعم القرار السريري الذي يمكّن مراجعة الطبيب مع التأكيد على أن الخبراء السريريين هم الأنسب لتحديد ما إذا كانت تطبيقات الذكاء الاصطناعي تستوفي معايير الجودة والملاءمة والصلاحية السريرية. كما قدمت جمعية المستشفيات الأمريكية (American Hospital Association) رسالة إلى FDA في ديسمبر 2025 تثير مخاوف محددة حول نطاق السلطة التقديرية للإنفاذ للأجهزة الطبية العاملة بالذكاء الاصطناعي.
الأجهزة القابلة للارتداء: إعفاء العافية
التوجيهات المحدّثة من FDA حول العافية العامة — الصادرة أيضاً في 6 يناير 2026 — توسّع فئة الأجهزة القابلة للارتداء المؤهلة للسلطة التقديرية للوكالة كمنتجات “عافية عامة”، مما يعفيها فعلياً من تنظيم الأجهزة الطبية.
بموجب الإطار المحدّث، تحافظ FDA على اختبارها ذي العاملين: يؤهل المنتج للسلطة التقديرية إذا كان مخصصاً فقط لاستخدامات العافية العامة ويمثل خطراً منخفضاً على المستخدمين. “استخدام العافية العامة” يعني أن الجهاز يتعلق بالحفاظ على حالة صحية عامة أو تشجيعها، أو بدور خيارات نمط الحياة الصحي في تقليل خطر أو تأثير أمراض مزمنة معينة — شريطة أن يكون هذا الدور مفهوماً ومقبولاً على نطاق واسع. كما يجب أن يكون الجهاز غير جراحي، أي لا يخترق الجلد.
التوسع الأبرز يتعلق بالقياسات الفسيولوجية. توضح التوجيهات المحدّثة أن الأجهزة القابلة للارتداء غير الجراحية التي تقدّر مقاييس تشمل معدل ضربات القلب ومستوى أكسجين الدم وأنماط النوم ومستويات النشاط وحتى ضغط الدم يمكن أن تؤهل كمنتجات عافية عامة — شريطة ألا تقدم ادعاءات تشخيصية خاصة بأمراض محددة وأن تُسوّق فقط لأغراض العافية.
هذا الحكم المتعلق بضغط الدم عكس مباشرة موقف FDA السابق تجاه شركة Whoop. في يوليو 2025، أصدرت FDA خطاب تحذير لشركة Whoop، مؤكدة أن ميزة Blood Pressure Insights الخاصة بها تشكل جهازاً طبياً غير مسجل لأن قراءات ضغط الدم “مرتبطة بطبيعتها بتشخيص انخفاض وارتفاع ضغط الدم.” اعترضت Whoop علناً على الخطاب، محتجة بأن ميزتها أداة عافية بموجب 21st Century Cures Act. بعد ستة أشهر، برّرت التوجيهات المحدّثة فعلياً موقف Whoop: الأجهزة القابلة للارتداء على المعصم التي تتتبع مقاييس تشمل ضغط الدم يمكن أن تندرج ضمن فئة العافية العامة، شريطة استخدامها لقيم موثقة وتجنب ادعاءات من الدرجة الطبية.
أصبح التمييز بين منتج العافية والجهاز الطبي الآن مسألة لغة تسويقية إلى حد كبير وليس قدرة وظيفية. ساعة ذكية تراقب إيقاع القلب وتنبه المستخدمين إلى رجفان أذيني محتمل ستبقى تحت رقابة FDA، لأنها تدعي اكتشاف حالة قلبية محددة. لكن جهازاً بمستشعرات مماثلة يقدم “رؤى حول صحة القلب” دون تسمية مرض بعينه قد يؤهل كمنتج عافية عامة معفى من مراجعة FDA.
أفادت التقارير بأن عدة شركات مصنّعة راجعت موادها التسويقية لاستبدال اللغة الخاصة بالأمراض بلغة موجهة نحو العافية، مما يعيد تصنيف أجهزتها فعلياً دون تغيير وظائفها. تعترف FDA بهشاشة هذا التمييز لكنها تحتج بأن رسم الخط عند الادعاءات الخاصة بالأمراض ضروري لتجنب تنظيم فئة واسعة بشكل مستحيل من الإلكترونيات الاستهلاكية — من الهواتف الذكية إلى أجهزة تتبع اللياقة إلى الملابس ذات المستشعرات المدمجة.
إعلان
المبادئ المشتركة بين FDA و EMA للذكاء الاصطناعي
في تطور مواز، شاركت FDA مع وكالة الأدوية الأوروبية (EMA) في نشر 10 مبادئ توجيهية للذكاء الاصطناعي في تطوير الأدوية في 16 يناير 2026. في حين تتناول هذه المبادئ استخدام الذكاء الاصطناعي عبر دورة حياة الأدوية — من البحث المبكر والتجارب السريرية إلى التصنيع ومراقبة السلامة — وليس الأجهزة الطبية تحديداً، فإنها تمثل تقارباً مهماً في التفكير التنظيمي الأمريكي والأوروبي حول حوكمة الذكاء الاصطناعي في الرعاية الصحية.
تؤكد المبادئ على محورية الإنسان، مشترطة أن تُصمم أنظمة الذكاء الاصطناعي لدعم الحكم البشري وليس استبداله. كما تفرض الشفافية حول الاستخدام المقصود وبيانات التدريب والقيود المعروفة وخصائص الأداء. وتتناول جودة البيانات، مشترطة أن تكون بيانات التدريب ممثلة للسكان الذين سيخدمهم الذكاء الاصطناعي. كما تحظى العدالة الخوارزمية باهتمام كبير، مع متطلبات لتقييم الأداء عبر المجموعات الديموغرافية الفرعية والكشف عن التفاوتات.
المبادئ استشارية وليست ملزمة قانونياً، لكنها تحمل ثقلاً عملياً. أشارت كل من FDA و EMA إلى أن التوافق مع المبادئ سيؤثر في القرارات التنظيمية. قد يكون المبدأ الأكثر أهمية هو متطلب المراقبة المستمرة للأداء — اعترافاً بأن أنظمة الذكاء الاصطناعي، على عكس الأجهزة الطبية التقليدية، يمكن أن تظهر انحرافاً في الأداء مع تغير مجموعات المرضى أو السياقات السريرية أو توزيعات البيانات.
تكمن الأهمية الأوسع فيما تكشفه المبادئ عن التباعد التنظيمي عبر الأطلسي بشأن الذكاء الاصطناعي الطبي. بينما تخفف FDA تنظيم أدوات الذكاء الاصطناعي السريرية والأجهزة القابلة للارتداء محلياً، فإنها تتعاون في الوقت نفسه مع EMA على أطر حوكمة. يصنّف قانون الذكاء الاصطناعي الأوروبي (AI Act) معظم الأجهزة الطبية العاملة بالذكاء الاصطناعي كأنظمة “عالية المخاطر”، مما يتطلب تقييمات مطابقة وإدارة مخاطر ومراقبة ما بعد التسويق. الفجوة المتنامية بين النهجين الأمريكي والأوروبي تخلق معايير سلامة مختلفة للمرضى الأمريكيين والأوروبيين وقد تفتت سوق الأجهزة الطبية العالمي.
مخاطر تخفيف التنظيم
يحمل التحول التنظيمي لـ FDA عدة مخاطر يمكن تحديدها ستصبح أكثر وضوحاً مع دخول التوجيهات الجديدة حيز التنفيذ.
المخاطرة الأولى هي الثغرات في السلامة. أنظمة الذكاء الاصطناعي المعفاة من مراجعة FDA لن تخضع لتقييم منهجي لدقتها أو موثوقيتها أو إمكانية إحداثها للضرر. اعتمدت FDA أكثر من 1,000 جهاز طبي يعمل بالذكاء الاصطناعي منذ 1995، منها 258 تم اعتمادها في 2025 وحدها — الأكثر في تاريخ الوكالة. مع توسع السلطة التقديرية للإنفاذ لتشمل المزيد من الأجهزة، ستنمو نسبة أدوات الصحة بالذكاء الاصطناعي العاملة دون أي مراجعة قبل التسويق. وبينما تحتفظ FDA بسلطة اتخاذ إجراءات تنفيذية ضد الأجهزة التي تسبب ضرراً فعلياً، فإن هذا النهج التفاعلي يعني أن المشاكل تُكتشف فقط بعد تأثر المرضى.
المخاطرة الثانية هي عدم تماثل المعلومات. بدون مراجعة FDA، يجب على مهنيي الرعاية الصحية والمستهلكين الاعتماد على ادعاءات الشركات المصنّعة حول أداء أجهزة الذكاء الاصطناعي. توفر عملية المراجعة قبل التسويق لدى FDA، رغم قيودها، تحققاً مستقلاً من ادعاءات السلامة والفعالية الأساسية. إزالة ذلك التحقق لفئات كاملة من أجهزة الذكاء الاصطناعي يترك الأطباء والمرضى دون مصدر معلومات موثوق.
المخاطرة الثالثة هي عدم اليقين في المسؤولية القانونية. شكّل الإطار التنظيمي لـ FDA تاريخياً خطاً أساسياً لدعاوى المسؤولية عن المنتج. عندما يحصل جهاز على موافقة FDA، يمكن للشركات المصنّعة الاحتجاج بأنها استوفت معيار الرعاية المطبق. عندما تُعفى الأجهزة من مراجعة FDA، يصبح إطار المسؤولية أقل وضوحاً، مما يخلق مخاطر تقاضي قد تثبط الابتكار بشكل متناقض بدلاً من تعزيزه.
المخاطرة الرابعة هي التباعد الدولي. يصنّف قانون الذكاء الاصطناعي الأوروبي معظم الأجهزة الطبية العاملة بالذكاء الاصطناعي كأنظمة عالية المخاطر خاضعة لمتطلبات شاملة، بما في ذلك تقييمات المطابقة وإدارة المخاطر ومراقبة ما بعد التسويق — مع متطلبات توثيق فني تتجاوز بشكل كبير تلك المطلوبة لاعتماد FDA عبر مسار 510(k). نهج FDA في تخفيف التنظيم يوسّع هذه الفجوة، مما قد يفتت سوق الأجهزة الطبية العالمي ويخلق أنظمة سلامة مختلفة للمرضى الأمريكيين والأوروبيين.
التداعيات على الابتكار في التكنولوجيا الطبية
رغم المخاطر، من المرجح أن تسرّع توجيهات FDA ابتكار الأجهزة الطبية العاملة بالذكاء الاصطناعي في الولايات المتحدة، على الأقل على المدى القصير.
يزيل إعفاء CDS حاجزاً كبيراً أمام شركات تكنولوجيا المعلومات الصحية التي تطور أدوات سريرية تعمل بالذكاء الاصطناعي. تمثل عملية الإخطار قبل التسويق 510(k) — التي تلتزم بموجبها FDA بالوصول إلى قرار بشأن 95% من الطلبات في غضون 90 يوم عمل — حاجزاً زمنياً ومالياً لمطوري البرمجيات متوسطة المخاطر. إلغاء هذا المتطلب لبرمجيات CDS المعفاة يسمح للشركات بطرح المنتجات في السوق بشكل أسرع وبتكلفة أقل، مع الحفاظ على المسار للأجهزة عالية المخاطر التي تحلل الصور أو الإشارات أو البيانات الجينومية.
يفتح إعفاء العافية للأجهزة القابلة للارتداء سوق تكنولوجيا الصحة الاستهلاكية أمام مجموعة أوسع من الأجهزة العاملة بالذكاء الاصطناعي. الشركات التي تجنبت سابقاً الميزات المتعلقة بالصحة لتبقى بعيدة عن اختصاص FDA — أو التي، مثل Whoop، تعارضت مع الموقف السابق للوكالة — يمكنها الآن دمج قدرات المراقبة الصحية بالذكاء الاصطناعي طالما حافظت على تسويق موجه نحو العافية.
استثمار رأس المال الاستثماري في الصحة الرقمية يتجه نحو الصعود. في 2025، زاد تمويل الصحة الرقمية بشكل ملحوظ عن العام السابق، حيث جمعت الشركات الناشئة العاملة بالذكاء الاصطناعي ما معدله 34.4 مليون دولار لكل جولة — بعلاوة 83% مقارنة بنظيراتها غير العاملة بالذكاء الاصطناعي. ترسيم FDA الأوضح لأي الأجهزة تتطلب مراجعة — وأيها لا — يقلل أيضاً من عدم اليقين التنظيمي، مما يجعل القطاع أكثر جاذبية للمستثمرين.
ومع ذلك، يجب موازنة فوائد الابتكار مع مخاطر سوق أقل تنظيماً. ستُحكم تجربة FDA في تخفيف تنظيم الأجهزة الطبية العاملة بالذكاء الاصطناعي في نهاية المطاف بنتائجها — ما إذا كان الابتكار الذي تمكّنه ينتج فوائد صافية للمرضى أم أن الثغرات الأمنية التي تخلقها تؤدي إلى أضرار يمكن تفاديها. البيانات المتولدة خلال السنتين إلى الثلاث سنوات المقبلة — بما في ذلك تقارير الأحداث السلبية ودراسات النتائج السريرية وبيانات المراقبة ما بعد التسويق — ستحدد ما إذا كان تحول FDA في 2026 سيصبح سمة دائمة في المشهد التنظيمي أم قصة تحذيرية عن حدود تخفيف التنظيم في الرعاية الصحية.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الأهمية بالنسبة للجزائر | متوسطة — يتبع نظام تنظيم الأجهزة الطبية في الجزائر نظام تصنيف على النمط الأوروبي (الفئات I-IIb-III) تشرف عليه الوكالة الوطنية للمنتجات الصيدلانية (ANPP). ورغم أن قطاع الرعاية الصحية الجزائري لا يتبنى توجيهات FDA مباشرة، فإن أجهزة الصحة بالذكاء الاصطناعي والأجهزة القابلة للارتداء المصنّعة في أمريكا والمستوردة إلى الجزائر ستعكس هذه المعايير الأكثر تساهلاً، كما أن اتجاهات التكنولوجيا الطبية العالمية تشكّل ما يصل إلى السوق الجزائري. |
| البنية التحتية جاهزة؟ | لا — تفتقر الجزائر إلى قدرات تطوير أجهزة طبية بالذكاء الاصطناعي محلياً. لا تمتلك ANPP أطر تقييم خاصة بالذكاء الاصطناعي، كما أن المستشفيات تمتلك بنية تحتية محدودة لنشر أنظمة دعم القرار السريري بالذكاء الاصطناعي على نطاق واسع. |
| المهارات متوفرة؟ | جزئياً — تمتلك الجزائر أطباء مؤهلين قادرين على استخدام أدوات CDS، لكنها تفتقر إلى خبرة تنظيمية في تقييم الأجهزة الطبية بالذكاء الاصطناعي ومراقبة ما بعد التسويق للأجهزة القائمة على البرمجيات. |
| الجدول الزمني للإجراء | 12-24 شهراً — لا يلزم اتخاذ إجراء تنظيمي فوري، لكن على ANPP في الجزائر مراقبة التباعد بين FDA والاتحاد الأوروبي وتحديد ما إذا كانت ستواءم معايير الاستيراد مع نهج قانون الذكاء الاصطناعي الأوروبي الأكثر صرامة أو ستقبل الأجهزة المعتمدة من أمريكا وفق الإطار الأكثر تساهلاً. |
| أصحاب المصلحة الرئيسيون | الوكالة الوطنية للمنتجات الصيدلانية (ANPP)، وزارة الصحة، أقسام تكنولوجيا المعلومات في المستشفيات، مستوردو الأجهزة الطبية، الجمعية الطبية الجزائرية |
| نوع القرار | استراتيجي — يجب على الجزائر أن تقرر أي إطار دولي ستستند إليه لاستيراد الأجهزة الطبية بالذكاء الاصطناعي مع تباعد الولايات المتحدة والاتحاد الأوروبي. يوفر النهج الأوروبي (الأقرب أصلاً لنظام الجزائر) حماية أقوى للمرضى؛ بينما يوفر نهج FDA وصولاً أسرع للابتكار. |
خلاصة سريعة: مع تخفيف FDA لتنظيم أدوات الصحة بالذكاء الاصطناعي بينما يشدد الاتحاد الأوروبي الرقابة عبر قانون الذكاء الاصطناعي، تواجه الجزائر خياراً بشأن المعيار الذي ستتبعه للأجهزة الطبية المستوردة العاملة بالذكاء الاصطناعي. نظراً لأن نظام التصنيف الجزائري يعكس أصلاً النموذج الأوروبي، فإن التوافق مع إطار المخاطر العالية في قانون الذكاء الاصطناعي الأوروبي سيكون المسار الأكثر طبيعية — لكن على المنظمين الجزائريين تسريع بناء قدرات التقييم الخاصة بالذكاء الاصطناعي في ANPP لتجنب أن تصبح الجزائر متلقياً سلبياً لأجهزة لم يقيّمها أي منظم رئيسي بشكل كامل.
المصادر والقراءات الإضافية
- FDA Announces Sweeping Changes to Oversight of Wearables, AI-Enabled Devices — STAT News
- 5 Key Takeaways from FDA’s Revised CDS Software Guidance — Covington & Burling
- Key Updates in FDA’s 2026 General Wellness and CDS Guidance — Faegre Drinker
- FDA AI-Enabled Medical Devices Database — FDA
- EMA and FDA Set Common Principles for AI in Medicine Development — EMA
- Digital Health Policy: FDA Relaxes Restrictions Over Wearables and AI — National Law Review





إعلان