Offener Brief Anwalt fordert Einstufung von ChatGPT als Medizinprodukt

Von Natalie Ziebolz Lesedauer: 3 min |

Anbieter zum Thema

ChatGPT beantwortet nicht nur viele Fragen, sondern wirft auch einige neue auf: Laut Sebastian Vorberg, Rechts- und Fachanwalt für Medizinrecht, muss die Software beispielsweise als Medizinprodukt eingestuft werden. Bereits zweimal hat er sich diesbezüglich in einem Offenen Brief an das BfArM gewandt.

Müssen Anwendungen wie ChatGPT als Medizinprodukt eingestuft werden?
Müssen Anwendungen wie ChatGPT als Medizinprodukt eingestuft werden?
(Bild: Sajjad-Farooq-Baloch – stock.adobe.com)

ChatGPT – seit der Veröffentlichung des auf künstlicher Intelligenz basierenden Chatbots im November vergangenen Jahres flachen die Diskussionen um diesen nicht ab. Auch im Gesundheitswesen wirft das Tool einige neue regulatorische Fragen auf. Im Januar hatte sich der Rechts- und Fachanwalt für Medizinrecht, Sebastian Vorberg, beispielsweise bereits an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) gewandt, um zu erreichen, dass die Software als Medizinprodukt eingestuft wird.

ChatGPT gebe auch Antworten zu allen medizinischen Themen – selbst auf konkrete und individuelle diagnostische und therapeutische Fragen, hieß es in der Begründung. Die Software könne ohne weiteres zur Diagnose, Überwachung, Behandlung oder Vorbeugung von Krankheiten verwendet werden und liefere Informationen, die für Entscheidungen mit diagnostischen und therapeutischen Zwecken herangezogen werden. „Auch, wenn die Software wegen des allgemein breiten Anwendungsfeldes nicht explizit für diese medizinischen Zwecke entwickelt wurde, wird dieser Zweck jedenfalls nicht ausgenommen. Und die tatsächliche Funktionalität der künstlichen Intelligenz zeigt im beschriebenen Umfang eine entsprechende inkludierte medizinische Zweckgebung eindeutig auf. Auch der Nutzer kann die Antworten auf entsprechende Fragen nicht anders verstehen als zweckorientierte medizinische Hilfestellung im Sinne der oben genannten Merkmale eines Medizinproduktes.“

Die Antwort des BfArM fiel jedoch sehr zurückhaltend aus: Dr.-Ing. Wolfgang Lauer, Abteilungsleiter in der Abteilung Medizinprodukte, wies darauf hin, dass für die Einstufung als Medizinprodukt die jeweilige Zweckbestimmung, mit der das Produkt auf den Markt gebracht wird, ausschlaggebend ist. „Auf dieser Basis ist der Hersteller oder Bevollmächtigte dafür verantwortlich, alle Voraussetzungen für das korrekte Inverkehrbringen seines Produktes im einschlägigen Produktbereich zu beachten.“ Das korrekte Inverkehrbringen überwache jedoch die dafür zuständige Behörde, das BfArM sei hier nicht mit eingebunden. Abschließend wies Lauer auch auf die Webseite des Instituts und die dort bereitgestellten Informationen zum rechtlichen Rahmen und zur Abgrenzung von Medizinprodukten sowie die entsprechenden Leitfäden der Medical Device Coordination Group (MDCG) hin.

Nun hat Vorberg nachgelegt und sich erneut in einem offenen Brief an das BfArM gewandt. „Die Antwort vermied eine konkrete Stellungnahme zur rechtlichen Einordnung von ChatGPT im Rahmen der Regulation von Medizinprodukten und kündigte auch keine weiteren Maßnahmen in dieser Fragestellung an“, kritisiert der Anwalt darin. In einer wissenschaftlichen Veröffentlichung habe er dargelegt, warum ChatGPT nach Maßgaben der Medical Device Regulation (MDR) als Medizinprodukt einzustufen sein. Die Software sei jedoch bis heute nicht als solches qualifiziert. „Dies bedeutet, dass aufsichtsrechtliche Aktivitäten nach diesseitiger Einschätzung unabdingbar und kurzfristig notwendig sind. Dennoch sind uns derzeit keine aufsichtsrechtlichen Aktivitäten bekannt, um diesen vermeintlichen Rechtsverstoß weiter zu verfolgen und zu ahnden.“

Der Anwalt geht jedoch noch einen Schritt weiter: „Eine weitere Untätigkeit der Aufsicht bezüglich der Regulation von ChatGPT würde für uns den belastbaren Anschein begründen, dass derartige und vergleichbare KI-Anwendungen frei von jeglicher medizinprodukterechtlicher Regulation sind und in dem von ChatGPT geprägten Rahmen ohne eine weitere Zulassung nach Maßgabe der MDR in den Verkehr gebracht werden können.“ Er gehe daher davon aus, „dass die regulatorische Untätigkeit gegen ChatGPT als willentliche und verlässliche behördliche Übung einzustufen ist, die im Rahmen der Gleichbehandlung auch allen weiteren Anwendungen der digitalen Medizin insbesondere mit Einbindung von generativer künstlicher Intelligenz als belastbarer Rechtsrahmen zukommt.“

Selbstverständlich sei die Klassifizierung und Einstufung von Medizinprodukten eine Einzelfallentscheidung, jedoch sei auch die Untätigkeit eine Aussage in sich bezüglich der deutschen Handhabung derartiger Anwendungen. „Wir bitten daher alle Aufsichtsbehörden darum, eine richtungsweisende Entscheidung für die Klassifizierung und Einstufung von Anwendungen wie ChatGPT herauszugeben und auch ChatGPT als Software aktiv hieran zu messen. Bis dahin werden wir die derzeitige behördliche Übung gegenüber ChatGPT als geltende Rechtslage ansehen und entsprechend für unsere Mandanten und Kunden gleichermaßen beanspruchen“, schließt Vorberg.

(ID:49783743)

Jetzt Newsletter abonnieren

Wöchentlich die wichtigsten Infos zur Digitalisierung im Gesundheitswesen

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung