Alle Skalpelle in den OP, bitte!
Fraunhofer IPK und die Charité CFM Facility Management GmbH entwickeln ein KI-basiertes System zur automatisierten Vollständigkeitsprüfung von Operationsbesteck.
Alltag in Universitätskliniken: In Aufbereitungseinheiten für Medizinprodukte werden Operationsbestecke gereinigt, desinfiziert, verpackt und sterilisiert. Rund 3500 Instrumente pro Tag werden so unter strengsten Hygiene- und Qualitätsstandards für chirurgische Eingriffe vorbereitet und in die OP-Säle geliefert. Bis zu 160 Skalpelle, Scheren, Klammern und andere Instrumente kann ein Packsieb mit der Flächengröße eines DIN A3-Blattes enthalten. Reklamationen aus dem OP, weil ein bestimmtes Instrument fehlt, gehören deshalb ebenfalls zum Klinikalltag.
Aber ist die gesuchte Klemme tatsächlich nicht da oder findet das OP-Team sie nicht unter den vielen, optisch sehr ähnlichen Instrumenten? Ist die Reklamation berechtigt oder nicht? Diese Frage können Dienstleistungsunternehmen wie die Charité CFM Facility Management GmbH nur an ihren Packstationen untersuchen, an denen Mitarbeiterinnen und Mitarbeiter die Operationsbesteck-Siebe manuell befüllen und anhand einer Packliste prüfen, ob alle benötigten Instrumente vollzählig in einem Sieb enthalten sind. Anschließend werden die Siebe verplombt und in den OP gebracht. Durch Scannen von eindeutigen Barcodes an festgelegten Scanpunkten ist die CFM in der Lage, OP-Siebe auch nach Verlassen der Aufbereitungseinheit zu orten. Jetzt will das Unternehmen auch neueste Technologien der KI-unterstützten Bildverarbeitung einsetzen um sicherzustellen, dass die Siebe auch vollständig gepackt unterwegs sind.
Forscher des Fraunhofer-Instituts für Produktionsanlagen und Konstruktionstechnik IPK entwickeln dafür ein Assistenzsystem, das mithilfe von Algorithmen OP-Instrumente automatisiert wiedererkennt. Es besteht aus einem mit bis zu drei Kameras bestückten Erfassungssystem, einem KI-Hauptsystem sowie einer Packstation als Client-Einheit. Das KI-Hauptsystem ist die Verarbeitungseinheit und das Herzstück der Technologie. Sie ermöglicht es, Bilddaten von OP-Instrumenten zu erheben, zu speichern und anhand dieser Bilddaten neuronale Netze zu trainieren. Dazu werden in einem ganzheitlichen Ansatz der Bildverarbeitung und Entscheidungsfindung Convolutional Neural Networks (CNN) verwendet. Gegenüber klassischen Methoden der Bildverarbeitung haben sie den Vorteil, dass die KI aufwendige Parametereinstellungen selbsttätig vornimmt und in einem automatischen Trainingsprozess alle Gewichte und Parameter fortwährend genauer an die vorliegenden Daten anpasst. Das Gesamtsystem wird gemäß dem 4-Augen-Prinzip als unterstützende Prüfinstanz für Mitarbeitende im Packprozess implementiert und soll helfen, die Arbeitsschritte an den Packsieben zu dokumentieren und deren Qualität sicherzustellen. Im Ergebnis sollen so Reklamationen von Fehlbestückungen in den Sieben reduziert werden.
In einer Machbarkeitsstudie haben die Fraunhofer-Expertinnen und -Experten bereits erfolgreich nachgewiesen, dass ihre Technologien zur automatisierten Wiedererkennung von OP-Besteck geeignet sind. Die Stichprobe umfasste 156 verschiedene OP-Instrumente, die anhand eines Datensatzes von insgesamt 9.672 Bildern mit einer Top-1-Genauigkeit von 99,9 Prozent und einer Top-5-Genauigkeit von 100 Prozent automatisiert wiedererkannt wurden. Der jetzt in der Entwicklung befindliche Prototyp soll ab Herbst 2021 als Assistenzsystem in der Aufbereitungseinheit für Medizinprodukte des Charité Campus Benjamin Franklin zur Verfügung stehen.