Użyteczność, szybkość, bezpieczeństwo danych i prywatności – to główne zalety wykorzystywania tzw. Edge AI chips w przemyśle.
Jak przewiduje Deloitte, w 2020 r. zostanie sprzedanych ponad 750 milionów krawędziowych chipów AI (ang. Edge AI chips), które wykonują lub przyspieszają zadania związane z uczeniem maszynowym (ML) na urządzeniu, w którym zostaną umieszczone. Przychód związany z tak ogromną ilością urządzeń wyniesie natomiast 2,6 miliarda dolarów.

Chipy ze sztuczną inteligencją trafią do wielu urządzeń, którymi na co dzień posługują się konsumenci. Mowa m.in. o smartfonach, tabletach czy nawet inteligentnych głośnikach. Jednak przede wszystkim będą wykorzystywane na wielu rynkach komercyjnych, np. w obszarzeinternetu rzeczy (IoT). Przykładem wykorzystania chipów AI jest m.in. funkcja rozpoznawania twarzy czy obsługa rzeczywistości rozszerzonej w nowych modelach smartfonów.
Lokalne przetwarzanie danych dzięki Edge AI chips
Jak czytamy w raporcie od Deloitte, do niedawna praktycznie wszystkie obliczenia przeprowadzane przez sztuczną inteligencję były wykonywane zdalnie w centrach danych, na urządzeniach klasy korporacyjnej (w odróżnieniu od urządzeń klasy konsumenckiej są one projektowane pod kątem dużych obciążeń, np. obliczeniowych) lub na procesorach telekomunikacyjnych – nie lokalnie na urządzeniach. Wynika to z faktu, że do niedawna rozmiar sprzętu, koszty czy pobór mocy zasadniczo uniemożliwiały umieszczenie tzw. macierzy obliczeniowych AI w cokolwiek mniejszego. Teraz Edge AI chips diametralnie zmieniają ten stan rzeczy. Są one fizycznie mniejsze, stosunkowo niedrogie, zużywają znacznie mniej energii i generują znacznie mniej ciepła – co umożliwia ich integrację z urządzeniami przenośnymi, takimi jak właśnie smartfony.
Dzięki temu, że chipy AI mają możliwość wykonywania intensywnych obliczeń lokalnie, eliminują potrzebę wysyłania dużych ilości danych w miejsca odległe (np. do centrów danych). Tym samym przeprowadzane procesy są szybsze, a przede wszystkim bezpieczniejsze. Oczywiście należy podkreślić, że nie wszystkie obliczenia muszą odbywać się lokalnie. W niektórych aplikacjach wysyłanie danych w celu ich przetwarzania przez tzw. zdalną macierz AI może być nawet bardziej preferowane, np. gdy istnieje zbyt wiele danych do przetworzenia.
Jednak zdaniem ekspertów tak naprawdę przez większość czasu AI będzie wykonywała obliczenia w sposób hybrydowy – częściowo na danym urządzeniu, a częściowo w chmurze. Będzie to zależało od tego, jaki rodzaj przetwarzania danych będzie musiała wykonać sztuczna inteligencja.
Edge AI chips w przemyśle
Technologia krawędziowych chipów AI otwiera wiele nowych możliwości dla przedsiębiorstw. Szczególnie w odniesieniu do zastosowań IoT. Poniżej przedstawiamy listę problemów, które mogą zostać rozwiązanie dzięki zastosowaniu Edge AI chips:
Bezpieczeństwo danych i prywatność. Konsumenci stają się coraz bardziej świadomi tego, że firmy przechowują ich dane. Jednak aż 80% z nich uważa, że przedsiębiorstwa nie robią wszystkiego, aby ochronić ich prywatność. Firmy, które zastosują chipy AI, zmniejszają ryzyko przechwycenia lub nieprawidłowego wykorzystania zgromadzonych danych. Stają się więc bardziej wiarygodne w oczach swoich klientów.
Zbyt wiele danych. Firmy korzystające już z potencjału IoT doskonale wiedzą, że mogą one generować ogromne ilości danych. Przykładowo, kamery bezpieczeństwa globalnie wytwarzają ok. 2,5 tysiąca petabajtów (co stanowi 2,621 44×10Indeks górny 99 gigabajta) cyfrowych informacji dziennie! Natomiast dzięki wbudowanym układom AI urządzenie może analizować dane w czasie rzeczywistym – transmitować tylko to, co jest istotne dla dalszej analizy w chmurze, a resztę „zapomnieć”, tym samym zmniejszając koszty magazynowania i przepustowości łącza.
Mniej mocy. Chipy uczenia maszynowego o niskiej mocy pozwalają na wykonywanie obliczeń AI urządzeniom, które posiadają nawet bardzo małe baterie. Dlaczego jest to istotne? Posłużmy się przykładem inhalatorów z tego typu wbudowanymi chipami. Analizują one (w inhalatorze) takie dane, jak pojemność oddechowa płuc i przepływ leków, po czym przesyłają wyniki do aplikacji np. na smartfonie. Dzięki temu pracownicy służby zdrowia mogą rozwijać zindywidualizowaną opiekę nad pacjentami cierpiącymi na astmę.
Opóźnienia. Niezależnie od tego, czy do przesyłu danych wykorzystywana jest sieć przewodowa czy bezprzewodowa, wykonywanie obliczeń w zdalnym centrum danych (przez AI) wiąże się z opóźnieniami rzędu 1–2 milisekund, i to w najlepszym przypadku. Taka sama sytuacja przy użyciu krawędziowego układu AI ogranicza to opóźnienie do zaledwie kilku nanosekund. Jest to krytyczne w zastosowaniach, w których urządzenie musi praktycznie natychmiast zbierać, przetwarzać dane. Jako przykład niech posłużą nam pojazdy autonomiczne, które muszą przetwarzać znaczną część danych, które gromadzą w samym pojeździe.
Mając na uwadze powyższe zastosowania, należy przypuszczać, że rozwój AI w kierunku obliczeń brzegowych będzie zyskiwał na znaczeniu. Tym bardziej że technologia stanowi znakomite uzupełnienie do nadchodzących trendów, o których mówią eksperci, m.in. wymienianym w tekście IoT czy technologii 5G.
Termin Edge AI chips został zapożyczony z tzw. obliczeń brzegowych (ang. Edge computing), co oznacza, że odbywają się one [obliczenia] w pobliżu źródła danych. W świecie sztucznej inteligencji chodzi o wszystko, co nie dzieje się ani w centrum danych, ani w komputerach charakteryzujących się ogromnymi mocami obliczeniowymi. Krawędziowe chipy AI należą do inteligentnych urządzeń brzegowych, które według definicji Microsoftu stanowią rozszerzający się zbiór połączonych systemów i urządzeń zbierających i analizujących dane – blisko użytkowników, danych lub jednych i drugich. Dzięki nim użytkownicy uzyskują analizy w czasie rzeczywistym i środowiska, które są dostarczane przez szybko reagujące aplikacje orientujące się w kontekście.