Ein Arzt untersucht mit einer Lupe einen Ausschlag.

Studie: Googles KI übertrifft Ärzte bei der Diagnose von Hautausschlägen

**Hinweis: Dieser Artikel beschreibt experimentelle akademische Forschung. Die vorgestellten Forschungsergebnisse ersetzen keine medizinische Beratung oder Diagnose durch Fachpersonal.

Googles experimenteller medizinischer Chatbot AMIE (Articulate Medical Intelligence Explorer) hat in einer neuen Studie bewiesen, dass er Hautausschläge anhand von Smartphone-Fotos präziser diagnostizieren kann als menschliche Ärzte. Die KI ist zudem in der Lage, andere medizinische Bilddaten wie EKGs oder PDFs mit Laborwerten auszuwerten und daraus zutreffende Diagnosen und Therapieempfehlungen abzuleiten.

Grundlage der Technologie ist das multimodale Sprachmodell Gemini 2.0 Flash, das speziell für medizinische Anwendungen weiterentwickelt wurde. Die Ergebnisse unterstreichen das Potenzial KI-gestützter Systeme, klassische medizinische Diagnostik zu ergänzen – werfen jedoch auch Fragen nach klinischer Verantwortung und Einsatzgrenzen auf.

Überlegenheit in simulierten Konsultationen

Zur Evaluierung des Systems führte ein Forscherteam 105 simulierte Konsultationen durch, bei denen 25 Schauspieler als Patienten auftraten. Sie präsentierten Symptome und Krankengeschichten an sowohl AMIE als auch menschliche Hausärzte. Die Diagnosen und Behandlungspläne beider Parteien wurden anschließend von 18 Fachärzten aus der Dermatologie, Kardiologie und Inneren Medizin analysiert.

Wie unter anderem Nature berichtet, erzielte AMIE eine höhere Diagnosegenauigkeit als die menschlichen Ärzte. Besonders auffällig war, dass die Leistung der KI auch dann stabil blieb, wenn ihr minderwertige oder schwer interpretierbare Bilder vorgelegt wurden – ein Bereich, in dem menschliche Mediziner mitunter Schwierigkeiten hatten.

Integration multimodaler Daten

Technisch basiert AMIE auf Googles Gemini 2.0 Flash – einem sogenannten Large Language Model (LLM), das Texte, Bilder und strukturierte Dokumente verarbeiten kann. Die Forschungsgruppe stattete das Modell mit zusätzlichen Algorithmen aus, die seine Fähigkeit zur klinischen Argumentation und zur Durchführung diagnostischer Gespräche verbessern. In simulierten Dialogen übernahm AMIE dabei verschiedene Rollen – Arzt, Patient und unabhängiger Beobachter – um realistische medizinische Interaktionen zu erlernen.

Diese multimodale Anpassung ermöglicht es dem System, patientenspezifische Informationen in einem breiten Kontext zu erfassen. Dabei stellt AMIE gezielte Rückfragen, priorisiert Symptome und gewichtet Befunde ähnlich einem menschlichen Arzt – allerdings mit einer rechnergestützten, systematischen Herangehensweise.

AspektDetails
Studienteilnehmer25 Schauspieler, 105 medizinische Szenarien
Bewertungsteam18 Fachärzte aus Dermatologie, Kardiologie und Innerer Medizin
TechnologieGemini 2.0 Flash, multimodales Sprachmodell
LeistungHöhere Diagnosegenauigkeit als menschliche Ärzte

AMIE bleibt trotz beeindruckender Ergebnisse ein reines Forschungssystem. Es ist bislang nicht für den praktischen Einsatz in Kliniken oder Praxen zugelassen. Zwar bringt die Fähigkeit zur simultanen Verarbeitung unterschiedlichster Gesundheitsdaten erhebliche Vorteile, etwa bei seltenen oder komplexen Krankheitsbildern, doch müssen noch viele Fragen zur Regulierung, Haftung und zum Datenschutz geklärt werden.

Wie der Google Research Blog betont, verfolgt das Unternehmen einen verantwortungsvollen Ansatz bei der Weiterentwicklung. Gleichzeitig mehren sich Forderungen nach unabhängiger Validierung durch externe Institutionen. Fachleute wie Eleni Linos von der Stanford University betonen, dass Systeme wie AMIE den Alltag in der Medizin grundlegend verändern könnten – sofern sie mit Bedacht eingesetzt werden.

Quellen:

Auch interessant: