Google setzt die Künstliche Intelligenz in sehr vielen Bereichen ein, wobei der Ursprung aber nicht in den heute sehr sichtbaren Produkten liegt, sondern eher im Hintergrund und der Auswertung sehr großer Datenmengen. Jetzt hat Google Health ein neues Projekt vorgestellt, mit dem es möglich sein soll, Krankheiten akustisch zu hören und somit vielleicht zukünftig wichtige Frühwarnungen geben zu können.
Google hat ein neues KI-Modell vorgestellt, das Lungenerkrankungen wie Tuberkulose, COPD oder andere Atemwegsinfekte erkennen können soll. Allerdings nicht durch Auswertungen von Abstrichen oder sonstigen Methoden, sondern rein durch die Akustik – die KI soll die Krankheiten hören können. Dazu lauscht die KI einfach auf Husten, Niesen oder gar Atmen und zieht entsprechende Schlüsse.
Trainiert wurde das KI-Modell laut den Google-Forschern mit über 300 Millionen Audiodaten aus einem vollständig anonymisierten Datensatz. Woher diese Daten stammen, ist allerdings nicht bekannt. Allein das Hustenmodell umfasst 100 Millionen Audiosätze. Das als „HeAR“ bezeichnete Modell soll eine leistungsstarke Grundlage für die medizinische Audioanalyse legen. Schon jetzt soll es „Im Durchschnitt bei einer Vielzahl von Aufgaben und bei der Generalisierung über Mikrofone hinweg besser abschneiden als andere Modelle“
Das Erkennen von Atemwegserkrankungen über den Husten oder per Stethoskop gehört zur Grundausbildung jedes Allgemeinarztes, doch die Google-KI könnte das auf eine ganz neue Stufe heben. Denn vor allem das Erkennen von Krankheiten durch das Atmen oder leichtem Husten könnte es ermöglichen, solche Gesundheitschecks vollkommen nebenbei per Smartphone – etwa bei einem Telefonat – durchzuführen.
[heise]