Uczenie głębokie podnosi wartość rozwiązań wideo

25 Apr 2019

W tym artykule Uri Guterman, szef działu produktów i marketingu firmy Hanwha Techwin Europe, oraz dr Alessia Saggese, współwłaścicielka A.I. Tech i profesor uczelniana Uniwersytetu w Salerno, przedstawiają uczenie głębokie i opowiadają o tym, jak obie firmy współpracują ze sobą, aby wprowadzić rozwiązania, które podniosą wartość systemów nadzoru wideo, zapewniając realne, wymierne korzyści.

Postępy w rozwoju sztucznej inteligencji i mikroukładów komputerowych z obsługą przetwarzania wideo są tak ogromne, że ludzie od dawna zajmujący się tym obszarem badań technologicznych, tacy jak Yann LeCun, żartem mówią o pracach przed 2012 r. jako o „prehistorii”. Pod względem rozpoznawania obiektów algorytmy dostępne w tamtym czasie były dokładne tylko w 75%. Obecnie dzięki uczeniu głębokiemu możemy spodziewać się znacznie większej precyzji. Postępy z ostatnich 12 miesięcy oznaczają, że zbliżamy się do momentu, w którym możemy poważnie rozważyć wprowadzenie technologii do większości systemów nadzoru wideo.

Uczenia głębokiego nie należy traktować jak platformy oprogramowania do zaawansowanej analizy wideo. Ta technologia zmieni branżę zabezpieczeń pod względem sposobów wykrywania incydentów i reagowania na nie.

 

Czym jest uczenie głębokie?

W przeciwieństwie do większości platform analizy wideo programista aplikacji uczenia głębokiego nie musi tworzyć skomplikowanych algorytmów rozpoznawania obiektów. Rozwiązanie oparte na uczeniu głębokim potrafi uczyć się na przykładach. Na wstępnym etapie szkoleniowym do aplikacji przekazywane są duże ilości danych reprezentujących prawidłowe rozwiązania problemów, takich jak klasyfikacja ludzi według wieku lub płci.

Sieć głęboka analizuje relację między wprowadzonymi danymi a oczekiwanym wynikiem, takim jak płeć danej osoby, i uczy się, jak rozwiązać problem przez analogie. Przykładowo prawidłowe ustalenie płci wymaga, aby ekspert ds. sztucznej inteligencji zaprojektował, przeszkolił i sprawdził sieć głęboką, która na etapie szkolenia korzysta z bazy danych milionów odpowiednio dobranych twarzy, z których każda jest powiązana z informacjami o znanej, rzeczywistej płci. Po kilku dniach uczenia sieć neuronowa jest gotowa do pracy, a jej dokładność prawdopodobnie sięgnie 98%, czyli będzie działać mniej więcej z tą samą precyzją, co człowiek wykonujący to samo zadanie.

 

Wyzwanie

Uczenie głębokie wymaga wiedzy specjalistycznej ekspertów ds. uczenia maszynowego oraz ogromnych zasobów obliczeniowych, ponieważ aplikacja musi radzić sobie z warunkami w rzeczywistym środowisku, takimi jak zmieniające się warunki oświetleniowe, cienie, ustawienie twarzy itd. W związku z tym wszystkie rozwiązania uczenia głębokiego wykraczające poza podstawy będą musiały działać na serwerach o wystarczającej mocy obliczeniowej i pamięci. Aby uczenie głębokie było praktycznym dodatkiem do większości systemów nadzoru wideo, musi opierać się na zoptymalizowanej architekturze programowej, co pozwoli na używanie go na urządzeniach brzegowych, tj. w kamerach, tak samo jak aplikacje działają ma smartfonach i tabletach.

 

Partnerska współpraca firmy Hanwha Techwin

Zmniejszenie zapotrzebowania uczenia maszynowego na moc obliczeniową, aby można było korzystać z niego na urządzeniach brzegowych, to nie lada wyzwanie. Właśnie dlatego firma Hanwha Techwin propaguje koncepcję bliskiej współpracy producentów rozwiązań do nadzoru wideo z ekspertami w tej dziedzinie, aby mieć dostęp do najnowszych badań i innowacji.

Dla Hanwha Techwin oznacza to współpracę z A.I. Tech — firmą, która powstała w wyniku prac wydziału inżynierii komputerowej — Computer Engineering Department (DIEM) — Uniwersytetu w Salerno (UNISA), w którym działa grupa badawcza laboratorium „Intelligent Machines for Video Recognition” (Inteligentne maszyny do rozpoznawania wideo). Dyrektor generalny A.I. Tech — Mario Vento — jest jednym z najwyżej cenionych włoskich specjalistów ds. inżynierii i najczęściej cytowanych autorów we Włoszech w dziedzinie rozpoznawania obrazu i sztucznej inteligencji.

 

Kamery A.I.

Hanwha Techwin pracuje też nad wprowadzeniem nowych kamer Wisenet w drugiej połowie 2019 roku, które będą wyposażone w mikroukład do rozpoznawania obrazu, który umożliwi uczenie głębokie bezpośrednio w kamerach. Te nowe kamery o rozdzielczości 4K i 5 MP, które staną się częścią serii kamer premium Wisenet P, początkowo będą wyposażone w bardziej precyzyjne formy istniejących typów analizy wideo. Jednocześnie zapewnią naszym partnerom technologicznym platformę, na której będzie można wykorzystywać nasze interfejsy API do wprowadzania przełomowych zastosowań uczenia głębokiego, doskonale dopasowanych do nowych kamer.

 deep2

Masz pytania dotyczące uczenia głębokiego? Napisz e-mail do Uriego Gutermana na adres [email protected] lub do dr Alessii Saggese na adres [email protected]

 

This post is also available in: angielski, francuski, niemiecki, włoski, hiszpański, turecki