HyperAIHyperAI

Command Palette

Search for a command to run...

Tiefes Lernen ist effektiv für die Klassifizierung von OCT-Bildern bei normalen im Vergleich zu altersbedingten Makuladegenerationen.

Cecilia S. Lee; Doug M. Baughman; Aaron Y. Lee

Zusammenfassung

Ziel: Die Einführung von elektronischen Patientenakten (EPA) mit umfangreichen elektronischen Bildarchiven sowie die Fortschritte in der Anwendung tiefer neuronaler Netze und maschinellen Lernens haben eine einzigartige Gelegenheit geschaffen, Meilensteine in der automatisierten Bildanalyse zu erreichen. Die optische Kohärenztomografie (OCT) ist das am häufigsten verwendete bildgebende Verfahren in der Augenheilkunde und stellt, in Kombination mit aus den EPA abgeleiteten Etiketten, einen dichten und reichhaltigen Datensatz dar. Ziel dieser Studie war es zu ermitteln, ob tiefes Lernen zur Unterscheidung zwischen normalen OCT-Bildern und Bildern von Patienten mit altersbedingter Makuladegeneration (AMD) eingesetzt werden kann.Methoden: Eine automatische Extraktion einer OCT-Bildbank wurde durchgeführt und mit klinischen Endpunkten aus den EPA verknüpft. OCT-Makula-Scans wurden mit dem Heidelberg Spectralis aufgenommen, und jeder OCT-Scan wurde mit klinischen Endpunkten aus EPIC verknüpft. Aus den OCT-Scans zweier Patientengruppen – normalsichtig und AMD – wurden jeweils die zentralen 11 Bilder ausgewählt. Eine Kreuzvalidierung wurde anhand einer zufällig ausgewählten Teilmenge von Patienten durchgeführt. Empfängnisoperatorcharakteristiken (ROC)-Kurven wurden auf Bild-, Makula-OCT- und Patientenebene erstellt.Ergebnisse: Aus einer Extraktion von 2,6 Millionen OCT-Bildern, die mit klinischen Datenpunkten aus den EPA verknüpft waren, wurden 52.690 normale und 48.312 AMD-Makula-OCT-Bilder ausgewählt. Ein tiefes neuronales Netz wurde trainiert, um die Bilder als entweder normal oder AMD zu klassifizieren. Auf Bild-Ebene erreichten wir einen Flächeninhalt unter der ROC-Kurve (auROC) von 92,78 % bei einer Genauigkeit von 87,63 %. Auf Makula-Ebene erreichten wir einen auROC von 93,83 % bei einer Genauigkeit von 88,98 %. Auf Patientenebene erreichten wir einen auROC von 97,45 % bei einer Genauigkeit von 93,45 %. Die maximalen Werte für Sensitivität und Spezifität bei optimaler Schwellengrenze betrugen jeweils 92,64 % und 93,69 %.Schlussfolgerungen: Tiefes Lernen ist effektiv zur Klassifizierung von OCT-Bildern. Diese Ergebnisse haben wichtige Implikationen für die Nutzung der OCT in automatisierten Screeningverfahren und computergestützten Diagnosewerkzeugen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp