Sicherheit in Produktionsumgebungen durch bildgebende Radartechnologie

Use Case Beschreibung

Die sichere Zusammenarbeit von Menschen und Robotern sowie fahrerlosen Transportfahrzeugen (AGVs) ist kritisch in automatisierten Produktionsumgebungen. Aktuell müssen AGVs mit Lasersensorik navigieren, die keine zuverlässige Unterscheidung zwischen Menschen und anderen Hindernissen vornehmen kann (von Personen erfassen Laser beispielsweise nur die Knöchel). Das reduziert die mögliche Interaktionsdichte zwischen Robotern und Menschen, erfordert fortgeschrittene Sensorik in jedem Roboter, und erhöht das Kollisionsrisiko. Eine zuverlässigere Detektion von Menschen in der Umgebung birgt großes Potenzial, da damit Sicherheit für Menschen erzielt wird und Roboter mit hoher Geschwindigkeit und Effizienz operieren können, ohne dabei eine Gefahr darzustellen.

Dies kann anhand bildgebender Radartechnologie erzielt werden. Dabei ist eine datenschutzkonforme, zuverlässige und gegen wechselnde Umgebungsbedingungen robuste Menschendetektion möglich. Die erforderliche Personenerkennung wird durch KI-gestützte Verfahren erzielt. 

Bildquelle: ChatGPT 5.0

Rechtliche Einordnung

  • KI-System nach AI Act und MVO
  • Das Unternehmen hat das KI-System selbst entwickelt und ist daher Anbieter nach Art. 2 Abs. 1 lit. A
  • Die KI übernimmt eine sicherheitsrelevante Schutzfunktion, sodass sie als Sicherheitsbauteil (nach Art. 3 Nr. 14 KI-VO) eingeordnet werden kann
  • Dies trifft auch zu, wenn das KI-System stationär eingesetzt wird und nicht physisch in die Maschine integriert ist
  • Das Radarsystem soll insb. in Verbindung mit Maschinen eingesetzt werden, die der Maschinenverordnung unterfallen (vgl. Art. 3 Nr. 1 Maschinenverordnung)
  • Eine Konformitätsbewertung durch Dritte ist verpflichtend nach Art. 25 Abs. 2 i.V.m. Anhang I Teil A Nr. 5 MVO
  • Es handelt sich daher um ein Hochrisiko-System gem. Art. 6 Abs. 1 KI-VO i.V.m. Anhang I

Besondere Herausforderungen

  • Die Frage der Dritt-Konformitätsbewertung – und somit zugleich der Hochrisiko-KI-Einordnung nach Art. 6 Abs. 1 KI-VO – steht und fällt maßgeblich mit der Auslegung der in der MVO verwendeten Kategorie „selbstentwickelndes Verhalten“ bei sicherheitsrelevanten ML-Systemen.
  • Selbst wenn man die Kategorie so interpretiert, dass damit nur Systeme gemeint sind, die im Betrieb weiterlernen, handelt es sich funktional um eine Schutzeinrichtung zur Personendetektion. Für solche Schutzeinrichtungen bestimmt Anhang I Teil B Nr. 15 MVO, dass sie einer Dritt-Konformitätsbewertung unterliegen, sofern keine ausreichenden harmonisierten Normen vorliegen.