Weniger Fehlalarme dank KI

10 Jun 2020

Uri Guterman, Head of Product & Marketing bei Hanwha Techwin Europe, über das Potenzial der Deep Learning-Videoanalyse, mit der sich Fehlalarme deutlich reduzieren lassen.

Lange Zeit waren die Kosten für Videoüberwachung von externen Standorten  für die meisten Unternehmen zu hoch. Durch die zunehmend günstige Verfügbarkeit von Breitband-Internet und die Entwicklung hin zu ereignisgesteuerter Überwachung in den letzten Jahren werden jedoch  Überwachungslösungen erschwinglich.

Durch ereignisgesteuerte Überwachung werden Sicherheitsmitarbeiter über verdächtige Vorfälle informiert, ohne ständig auf einen Bildschirm schauen zu müssen. Das senkt nicht nur die Kosten, sondern minimiert auch das Risiko, aufgrund mangelnder Konzentration ein Ereignis zu übersehen.

Zudem ermöglichen ereignisgesteuerte Alarme durch Sensoren und Bewegungserkennungssoftware sowie seit kurzem auch Edge-basierte Videoanalyselösungen, eine große Anzahl von Standorten gleichzeitig zu überwachen.

Die Herausforderung Fehlalarm

Trotz ständiger Fortschritte in der Technologie erzeugen Videoanalyselösungen noch immer häufige, unerwünschte Fehlalarme. Das liegt daran, dass sie nicht exakt zwischen beispielsweise einem streunenden Tier und einer menschlichen Bewegung, einem Fahrzeug oder Bildrauschen unterscheiden können. Dies bindet zeitliche und finanzielle Ressourcen, weil Sicherheitsmitarbeiter jeden Vorfall dennoch vor Ort überprüfen müssen.  Darüber hinaus verlieren sie das Vertrauen in ihre Systeme, insbesondere bei älteren Modellen. Dies führt dazu, dass Sicherheitsverantwortliche die Technologie stellenweise wieder deinstallieren.

KI-basierte Lösungen

Hanwha Techwin ist bietet mit seinen Deep Learning-Videoanalyselösungen leistungsstarke Werkzeuge für die Sicherheit von Unternehmen, Behörden und anderen Organisationen sowie kommerziell genutzte Sicherheitskontrollräume. Die lizenzfreie Software läuft mit hochauflösenden Kameras und bietet ein hohes Maß an Erkennungsgenauigkeit bei gleichzeitiger Minimierung von Fehlalarmen.

Das liegt insbesondere an ihrer Fähigkeit, gleichzeitig verschiedene Objekttypen wie Fahrzeuge, Gesichter und Nummernschilder zu erkennen und zu klassifizieren. Die von Hanwha Techwin produzierten KI-Kameras werden von Wisenet-KI-Algorithmen unterstützt, die bestimmte Eigenschaften von Objekten und Menschen identifizieren können. Dazu zählen unter anderem Altersgruppe, Geschlecht oder Kleidungsfarbe von beobachteten Personen.

Die Attribute werden als Metadaten zusammen mit den von KI-Kameras aufgenommenen Bildern gespeichert, so dass Nutzer schnell nach bestimmten Objekten oder Vorfällen filtern können. Die Algorithmen sind dabei sogar in der Lage zu erkennen, ob eine Person eine Brille trägt oder eine Tasche bei sich hat.

Besonders wichtig: Die Deep Learning-Videoanalyse ist so konfigurierbar, dass häufige Ursachen von Fehlalarmen wie Bildrauschen oder Bewegungen von Bäumen, Wolken und Tieren ignoriert werden. Dies verhindert kostspielige Überprüfungseinsätze und gibt dem Sicherheitspersonal die Möglichkeit, sich auf reale Vorfälle und Notfälle zu konzentrieren.

Die Analysten von Memoori Smart Building Research prognostizieren in einem kürzlich erschienenen Bericht, dass das globale Marktvolumen für Videoüberwachungsprodukte von 19,15 Milliarden Dollar im Jahr 2019 auf 35,82 Milliarden Dollar im Jahr 2024 steigen wird. Einen wesentlichen Beitrag schreiben die Forscher dabei KI-basierter Videoanalyse zu. Sie hat das Potenzial, Fernüberwachung noch effizienter und kostengünstiger zu machen. Damit wird sie ihren Beitrag zur Bekämpfung krimineller Aktivitäten künftig deutlich steigern, beispielsweise durch die Möglichkeit, aufgezeichnete Videos schnell nach forensischen Beweisen zu durchsuchen. In nicht allzu ferner Zukunft wird es KI-Anwendungen von Hanwha Techwin und seinen Technologiepartnern geben, die Videoüberwachung auf ein kaum für möglich gehaltenes Niveau heben werden.

Haben Sie Fragen zu KI-basierter Videoanalyse? Dann senden Sie doch einfach eine E-Mail an Uri Guterman unter [email protected].

This post is also available in: Englisch