Niezawodność, plany awaryjne i odtwarzalność sztucznej inteligencji w automobilności

Autor: Marcin Szponder

Dodano: 20 marca 2023
cover

Niniejszy raport wskazuje, że wymogi odnoszące się do powtarzalności, niezawodności i odtwarzalności zautomatyzowanych i autonomicznych systemów jazdy należy uwzględnić w wyżej wymienionych testach certyfikacji bezpieczeństwa dla wszystkich funkcjonalności. Zarazem wskazano, że łatwiej je zapewnić w testach symulacyjnych i fizycznych na zamkniętych torach natomiast trudniejsze i bardziej wymagające jest testowanie w rzeczywistych warunkach drogowych. 

Na koniec tego fragmentu rozważań autorzy niniejszego raportu podkreślają fakt, że zaproponowano wiele podejść do ciągłego, internetowego lub adaptacyjnego uczenia się w celu rozwiązania różnych problemów (tj. warstw) pojazdów autonomicznych i zautomatyzowanych. Z jednej strony ta ciągła adaptacja systemów sztucznej inteligencji koncentruje się na poprawie ich wydajności, przy użyciu najbardziej powszechnego podejścia do uczenia się przez wzmacnianie. Szkolenie autonomicznych systemów jazdy z uczeniem się ze wzmocnieniem w rzeczywistych środowiskach pociąga za sobą niedopuszczalne koszty i ryzyko prób i błędów. Dlatego też niezwykle istotna jest rola symulatorów jazdy autonomicznej, a kluczową kwestią do rozwiązania jest przepaść między środowiskiem wirtualnym a rzeczywistym. Z drugiej strony uczenie się online koncentruje się również na dostosowywaniu się do nowych sytuacji, takich jak na przykład ponowne szkolenie algorytmów percepcji w celu uwzględnienia nowej rzeczywistości pieszych systematycznie noszących maski. Ciągłe uczenie się można zastosować w jeden sposób, pobierając nowe dane, a następnie aktualizując odpowiedni komponent. Ale można go również zastosować online podczas działania komponentu AI. Ta ostatnia opcja (online), chociaż możliwa, wiąże się z bardzo wysokim ryzykiem, ponieważ może zagrażać bezpieczeństwu komponentu. Nawet stosując cele bezpieczeństwa do kształtowania adaptacji systemu lub nadzorowania bezpieczeństwa do monitorowania zmiany zachowania elementu podczas jego pracy, należy unikać ciągłego uczenia się podczas pracy. W przypadku innych zastosowanych, ciągłe uczenie się wygeneruje zaktualizowane modele oparte na sztucznej inteligencji (tj. aktualizacje oprogramowania), które mogą wpłynąć na spełnienie któregokolwiek z odpowiednich wymagań systemów związanych z homologacją typu. Organ udzielający homologacji musi rozważyć każdą istotną aktualizację elementu opartego na sztucznej inteligencji, która może zmienić jego parametry techniczne, czy wymagała będzie dalszych testów w celu upewnienia się, że wprowadzone modyfikacje nadal są zgodne z wymogami.

Przypomnijmy, że uczenie się przez wzmacnianie (RL) to zestaw metod uczenia maszynowego, w których agent autonomicznie uczy się strategii w celu maksymalizacji otrzymywanych nagród. Agentowi nie jest skazywane, które działanie jest najlepsze w danej sytuacji, ale otrzymuje nagrodę poprzez interakcję z otoczeniem w określonych momentach. Termin zapożyczony jest z psychologii i używany od początków cybernetyki. Marvin Minsky użył tego terminu w swojej rozprawie z 1954 roku. Wzmacniające modele uczenia się próbują naśladować zachowania związane z uczeniem się w naturze. Istnieje szczególnie ścisły związek między uczeniem się przez wzmacnianie a programowaniem dynamicznym i optymalną kontrolą. W tym drugim przypadku, w przeciwieństwie do pierwszego, dany jest model środowiska a priori, co sprawia, że interakcja z otoczeniem jest zbędna. Nauka ze wzmacnianiem jest wykorzystywana w kilku zastosowaniach: robotyka, zarządzanie zasobami, lot helikopterem, chemia. Metoda ta została z powodzeniem zastosowana do rozwiązywania różnych problemów, takich jak sterowanie robotami, odwrócone wahadło, planowanie zadań, telekomunikacja, szachy. W 2015 roku wykazano, że uczenie się ze wzmocnieniem może stworzyć program grający w gry Atari. System uczy się grać w gry, otrzymując jako dane wejściowe piksele ekranu i wynik. Ciekawostką jest to, że system nie ma dostępu do stanu pamięci wewnętrznej gry (z wyjątkiem wyniku). W 2018 roku połączono kilka technik w celu poprawy wydajności programu. Ostatnio powstała zaś AlphaGo Zero, czyli nowa technika uczenia się przez wzmacnianie, w której agent uczy się, będąc własnym nauczycielem.

Ponadto udało się wykorzystywać uczenie ze wzmacnianiem, aby nauczyć system 20 zadań fizycznych, takich jak podnoszenie wahadła, prowadzenie samochodu, poruszanie chodzącym robotem i inne manipulacje zręcznościowe.

Uczenie się ze wzmacnianiem jest wykorzystywane do rozwiązywania problemów optymalizacji, takich jak problem pakowania pojemnika 3D. W przypadku problemu pakowania w pojemniku 3D, polega to na układaniu kostek o różnych rozmiarach z ograniczeniami (np. nieprzekraczanie dostępnej objętości lub „jedno pudełko nie może znajdować się na drugim” itp.), optymalizując na przykład całkowitą wysokość. W ramach uczenia się przez wzmacnianie agent decyduje się obrócić pudełko, umieścić pudełko w określonym miejscu i tak dalej.

Formalizacja problemów z uczeniem się przez wzmocnienie została również zainspirowana teoriami psychologii zwierząt, takimi jak te analizujące, w jaki sposób zwierzę może uczyć się metodą prób i błędów, aby przystosować się do swojego środowiska. Teorie te w dużym stopniu zainspirowały naukową dziedzinę sztucznej inteligencji i w dużym stopniu przyczyniły się do powstania algorytmów uczenia się ze wzmocnieniem na początku lat 80.

Ponadto obecne udoskonalenie algorytmów uczenia się przez wzmacnianie inspiruje pracę neurobiologów i psychologów w celu zrozumienia funkcji mózgu i zachowania zwierząt. Rzeczywiście, współpraca neurobiologów i badaczy sztucznej inteligencji umożliwiła odkrycie, że część mózgu działa w sposób bardzo podobny do algorytmów uczenia przez wzmocnienie, takich jak TD-learning38. Wydawałoby się zatem, że natura odkryła w toku ewolucji sposób podobny do tych, które odkryli badacze, aby zoptymalizować sposób, w jaki czynnik lub organizm może uczyć się metodą prób i błędów. A raczej naukowcy zajmujący się sztuczną inteligencją częściowo odkryli na nowo to, co naturze zajęło miliony lat. Rzeczywiście, obszar mózgu, który wykazuje analogie z algorytmami uczenia przez wzmacnianie, nazywa się jądrami podstawnymi, których element zwany istotą czarną emituje neuromodulator, dopaminę, która chemicznie wzmacnia połączenia synaptyczne między neuronami. Takie funkcjonowanie jąder podstawy zidentyfikowano jako występujące u wszystkich kręgowców, a ten sam rodzaj wyników można znaleźć w obrazowaniu medycznym u ludzi.

Rozwój wymiany naukowej między neurobiologami, psychologami i badaczami sztucznej inteligencji nadal trwa. Obecnie badacze czerpią inspirację z mózgu, aby udoskonalić algorytmy uczenia się przez wzmacnianie, a tym samym starają się opracować roboty, które są bardziej autonomiczne i adaptacyjne niż te istniejące. Rzeczywiście, nawet jeśli wydaje się, że przyroda i badacze osobno znaleźli to samo rozwiązanie, aby rozwiązać niektóre rodzaje problemów, takie jak te opisane w poprzednim akapicie, zdajemy sobie sprawę, że inteligencja współczesnych robotów jest wciąż daleka od inteligencji człowieka, a nawet wielu zwierząt takich jak małpy czy gryzonie. Obiecującym sposobem na przezwyciężenie tego jest bardziej szczegółowe przeanalizowanie, w jaki sposób mózg biologiczny parametryzuje i anatomicznie strukturyzuje procesy, takie jak uczenie się przez wzmacnianie, oraz w jaki sposób integruje te procesy z innymi funkcjami poznawczymi, takimi jak percepcja, orientacja przestrzenna, planowanie, pamięć i inne, w celu odtworzenia tej integracji w sztucznym mózgu robota.

Dodajmy także, że symulatory jazdy to chyba najbardziej wyrafinowane zastosowanie komputerowo wspomaganych symulacji kinematycznych i dynamicznych, a także jeden z największych triumfów w rozwoju tych rozwiązań. Podobnie jak symulatory lotu, symulatory jazdy umieszczają kierowcę w sztucznym środowisku uważanym za ważny substytut jednego lub więcej aspektów rzeczywistego doświadczenia z jazdy. Jednak w przeciwieństwie do symulatorów lotu opracowanych głównie z myślą o szkoleniu pilotów, symulatory jazdy wspierają znacznie więcej funkcji niż szkolenie kierowców. Zaawansowane symulatory jazdy są dziś wykorzystywane przez inżynierów i naukowców zajmujących się projektowaniem pojazdów, inteligentnymi projektami autostrad oraz badaniami czynników ludzkich, takich jak zachowania kierowców pod wpływem narkotyków, alkoholu i trudnych warunków pogodowych. Zapewniają bezpieczne środowisko do testowania, w którym kontrolowane, powtarzane pomiary mogą być przeprowadzane w opłacalny sposób. Naukowcy i inżynierowie są przekonani, że uzyskane pomiary mogą pomóc im przewidzieć równoważne pomiary w rzeczywistym świecie, co prowadzi do lepszego zrozumienia złożonej interakcji kierowca-pojazd-droga w krytycznych sytuacjach drogowych. Wyniki takich badań doprowadzą ostatecznie do zmniejszenia liczby zgonów i obrażeń związanych z ruchem drogowym na krajowych autostradach.

Z wyglądu symulator jazdy — na przykład National Advanced Driving Simulator (NADS) Uniwersytetu Iowa w Iowa City — składa się z kopuły na szczycie platformy Stewart zamontowanej na podłużnych i bocznych szynach na ziemi. System ruchu, na którym zamontowana jest kopuła, zapewnia ruch poziomy i wzdłużny oraz obrót w obu kierunkach, dzięki czemu kierowca odczuwa przyspieszenie, hamowanie i kierowanie tak, jakby faktycznie prowadził prawdziwy samochód, ciężarówkę lub autobus. Wewnątrz kopuły znajduje się kabina pojazdu (lub pełnowymiarowa karoseria) wyposażona elektronicznie i mechanicznie w oprzyrządowanie specyficzne dla marki i modelu. Wizualne wyświetlacze 360 stopni prezentują warunki ruchu, drogi i warunki pogodowe; Podsystem audio o wysokiej wierności dopełnia wrażenia z jazdy. Kierowca jest zanurzony w obrazie, dźwięku i ruchu tak realnym, że można przekonująco przedstawić zbliżające się scenariusze wypadku bez narażania kierowcy na niebezpieczeństwo.

Przypomnijmy też, że systemy homologacji typu ECE i WE opierają się na zasadzie wzajemności. Wszystkie państwa sygnatariusze umowy ECE z 1958 r., która służy jako podstawa przepisów ECE, są upoważnione do rejestracji pojazdu lub części. Wszystkie inne państwa sygnatariusze – jeśli uznają odpowiednią zasadę – są zobowiązane do uznania udzielonej już zgody. Na przykład reflektor zatwierdzony przez włoski urząd homologacyjny i oznaczony jako E3 może być legalnie używany w dowolnym miejscu w Europie i w każdym innym kraju, który uznaje przepisy ECE dla reflektorów. W tym przypadku nie są już potrzebne dopuszczenia krajowe. Podczas gdy system WE ogranicza się do Europy, od 1997 roku przepisy ECE przewidują, że do porozumienia mogą przystąpić również kraje pozaeuropejskie. Chociaż tylko ograniczona liczba krajów podpisała umowę z 1958 r, pojazdy i części wyprodukowane zgodnie z regulaminem ECE są zwykle rejestrowane bez modyfikacji w większości krajów świata. W kilku przypadkach konieczne są dodatkowe homologacje krajowe, ponieważ homologacja typu ECE nie jest w tych krajach uznawana, chociaż normy krajowe w dużej mierze opierają się na przepisach ECE. Tak jest na przykład w Indiach i Chinach. Chińska homologacja CCC jest w dużej mierze lustrzanym odbiciem ECE, ale należy ją uzyskać osobno. Najpoważniejszym wyjątkiem są Stany Zjednoczone Ameryki, które nie uznają regulacji ECE i stosują zupełnie inny system homologacji pojazdów i części (Federalne Standardy Bezpieczeństwa Pojazdów Silnikowych/FMVSS). Obecnie nie jest możliwe zbudowanie pojazdu spełniającego zarówno normy ECE, jak i FMVSS. Wielu producentów produkuje pojazdy w trzech podstawowych wersjach: lewostronnej, prawostronnej oraz wersji amerykańskiej.

Prywatność i zarządzanie danymi (KR3)

Omawiany raport stwierdza, że prywatność jest ściśle powiązana z zasadą zapobiegania szkodom, co wymaga odpowiedniego zarządzania danymi. Dlatego ten kluczowy wymóg został opracowany zgodnie z dwoma głównymi wymaganiami cząstkowymi, prywatnością i zarządzaniem danymi, które są ze sobą ściśle powiązane. Najpierw opisuje się rodzaje danych przechwyconych i wykorzystywanych przez AV, identyfikując elementy, które mogą zagrażać prywatności użytkowników wewnętrznych i zewnętrznych (tj. dane osobowe). Następnie należy zająć się wymogami dotyczącymi prywatności i zarządzania danymi.

Dane osobowe gromadzone przez AV

W punkcie 5.3.1 niniejszego dokumentu czytamy, że ogólna wydajność autonomicznych systemów jazdy opiera się na danych z wielu czujników z różnych funkcjonalności, w tym:

  • ulepszonych map w wysokiej rozdzielczości,
  •  chmur punktów 3D
  • sekwencji obrazów z kamer pokładowych skierowanych na zewnątrz i do wewnątrz,
  •  pomiaru bezwładnościowego systemu,
  • systemów audio do rozpoznawania mowy itp.

Z jednej strony wszystkie te dane są niezbędne do poprawy bezpieczeństwa wszystkich systemów w każdej z warstw AV. Dane są potrzebne do rozwoju systemów, testowania ich, używania i ulepszania po wdrożeniu. Na przykład systemy sztucznej inteligencji do lokalizacji pojazdów wymagają bardzo precyzyjnych map ze szczegółowymi informacjami, które należy uzyskać a priori, a także wielokrotnych sekwencji a posteriori z danymi georeferencyjnymi z kamer, LiDAR lub radaru, w celu opracowania różnych metod lokalizacji. Wówczas wdrożony system lokalizacji wymagałby tego samego rodzaju informacji w celu uzyskania dokładnej, całościowej pozycji i orientacji pojazdu. Zrozumienie sceny wymaga tysięcy (lub milionów) sekwencji danych z kamer i innych czujników, dogodnie oznaczonych, w celu szkolenia, walidacji i testowania systemów wykrywania i segmentacji pieszych, rowerzystów, pojazdów itp. Dotyczy to też danych do modelowania zachowania użytkowników dróg dla systemów predykcyjnych. Korzystając z nich, systemy percepcji muszą przetwarzać dane online o tym samym charakterze.

Systemy interakcji człowiek-pojazd wymagają również danych z wielu czujników, aby najpierw opracować, a następnie wdrożyć interfejsy człowiek-maszyna, zarówno w pojeździe (HMI), jak i zewnętrzne (eHMI). Podobnie jak w przypadku nadzoru wideo, gdy dane przechwycone przez czujniki nie są w żaden sposób przechowywane ani przesyłane, a jedynie przetwarzane w czasie rzeczywistym w celu uzyskania danych nieosobowych przydatnych do lokalizacji, zrozumienia sceny, planowania ścieżek itp., ingerencja w prywatność jest bardziej ograniczona. Jednak we wszystkich przypadkach oczekuje się, że systemy te będą w stanie przechowywać dane, jeśli są one wykorzystywane do wielu celów takich jak:

  • poprawa wydajności systemu,
  • rozwiązywanie problemów,
  • monitorowanie po wprowadzeniu do obrotu i
  • identyfikowalność.

Z drugiej strony dane wyraźnie zawierają dane osobowe, tj. informacje dotyczące zidentyfikowanej lub możliwej do zidentyfikowania żyjącej osoby, od zewnętrznych użytkowników dróg do zapasowych kierowców i pasażerów, którzy mogą być identyfikowani, bezpośrednio lub pośrednio, na podstawie obrazów, danych o lokalizacji, znaków rejestracyjnych pojazdu (w połączeniu z informacjami geograficznymi, producenta, modelu i koloru), zachowań (np. odbytych podróży, wykroczeń drogowych, stanu uwagi itp.). ), a nawet dane dotyczące zdrowia fizycznego i psychicznego (np. za pomocą HMI). Ponadto funkcjonalny interfejs użytkownika w pojeździe umożliwia wykorzystanie danych biometrycznych (np. rozpoznawanie twarzy lub głosu). Identyfikacja użytkownika może być nawet korzystna dla poprawy interakcji użytkownika z pojazdem. Jednak zdaniem Komisji (motyw 10 rozporządzenia (UE) 2019/2144) wszelkie systemy bezpieczeństwa AV powinny działać bez wykorzystywania jakichkolwiek informacji biometrycznych kierowców lub pasażerów.

Ponadto należy dokonać rozróżnienia między danymi przetwarzanymi w celu opracowania systemów sztucznej inteligencji, aby spełniały wymogi bezpieczeństwa dotyczące homologacji typu i wprowadzania do obrotu, a danymi wykorzystywanymi do ulepszania systemów sztucznej inteligencji po wdrożeniu AV. W pierwszym przypadku główna podstawa prawna dotyczy wymagań homologacji typu pojazdu. W drugim przypadku gromadzenie i przetwarzanie danych musi podlegać jakiejś podstawie prawnej, takiej jak zgoda użytkownika pojazdu. Jednak dane z otoczenia środowiska AV, które obejmuje innych zewnętrznych użytkowników dróg, nie mogą być pozyskiwane na podstawie zgody, dlatego potrzebne są inne mechanizmy w celu zapewnienia prywatności (np. Privacy-by-design). Dwa odpowiednie systemy gromadzenia danych to rejestrator danych o zdarzeniach (EDR), który nie jest specyficzny dla AV, oraz system przechowywania danych do automatycznej jazdy (DSSAD), które zostały opracowane w celu rejestrowania danych wartościowych z punktu widzenia skutecznej rekonstrukcji zdarzeń wypadkowych  (również do celów prowadzenia testów). Nie są to systemy oparte na zgodzie, ale wymóg wprowadzania do obrotu nowych pojazdów, tj. wymaganie zgody konsumenta na rejestrację i/lub dostęp do danych oraz prawo do usunięcia danych, byłby bez znaczenia dla celów EDR i DDSAD. Ponadto systemy EDR i DDSAD są systemami z pętlą zamkniętą bez kanału wyjściowego do czasu wystąpienia wypadku i wszczęcia dochodzenia. Przed tym terminem, ściśle rzecz biorąc, nie ma administratora danych. Jednak, jak stwierdziła Międzynarodowa Organizacja Producentów Pojazdów Silnikowych (OICA, 2019), ciągłe nagrywanie i przechowywanie wideo, lokalizacji, prędkości i/lub otoczenia pojazdu wydaje się być sprzeczne z przepisami dotyczącymi ochrony prywatności. Niemiecka Rada ds. Bezpieczeństwa Ruchu Drogowego (GRSC, 2020) stwierdziła również, że wymagania dotyczące ochrony danych i prywatności pozostają kwestią otwartą do wyjaśnienia dla systemów EDR/DDSAD, nie tylko dla pojazdów zautomatyzowanych i autonomicznych, ale także dla konwencjonalnych. Raport dodaje na koniec tego fragmentu rozważań, że kwestie te są ważne po wszczęciu dochodzenia w sprawie wypadku. W tym momencie administrator uzyskujący dostęp do danych potrzebowałby odpowiedniej podstawy prawnej.

Przypomnijmy, że biometria to nauka zajmująca się pomiarami istot żywych oraz wymaganymi do tego metodami pomiaru i oceny. W zależności od obszaru zastosowania istnieją różne definicje. W 1841 r. Christoph Bernoulli był jednym z pierwszych naukowców, którzy użyli terminu biometria w dosłownej interpretacji do pomiaru i statystycznej oceny długości życia człowieka. Pojęcie biometrii ma dwa aspekty: statystyki biometrycznej i metod rozpoznawania biometrycznego, które również w praktyce są odrębne. Statystyka biometryczna dotyczy rozwoju i stosowania metod statystycznych do oceny wszelkiego rodzaju pomiarów na żywych istotach. Jest intensywnie używane przez wszystkie nauki przyrodnicze. Pionierem metodologii naukowej był Karl Pearson (1857–1936). W tym kontekście biometria jest również używana jako synonim biostatystyki. Dane biometryczne do identyfikacji osobistej były używane od dość dawna jako metoda rozpoznawania. W 1879 roku Alphonse Bertillon opracował system określania tożsamości, nazwany później Bertillonage, który opierał się na 11 pomiarach długości ciała (antropometria). W 1892 roku Francis Galton położył podwaliny naukowe pod wykorzystanie odcisków palców (daktyloskopia). Obecnie biometria w dziedzinie rozpoznawania osób jest również definiowana jako automatyczne rozpoznawanie osób na podstawie ich cech behawioralnych i biologicznych. Kolejnymi obszarami zastosowań biometrii są np. metody zautomatyzowanej diagnozy chorób.

Biometria rozwija się dzięki wzajemnemu oddziaływaniu dyscyplin nauk przyrodniczych, statystyki, matematyki i informatyki. Dopiero dzisiejsza technologia informatyczna umożliwia sprostanie wysokim wymaganiom mocy obliczeniowej typowych procesów biometrycznych. W zastosowaniach, w których nieprawidłowa weryfikacja lub identyfikacja może spowodować szkody, ważny jest nie tylko wystarczająco niski współczynnik fałszywych akceptacji (FAR). Ponieważ cechy biometryczne można skopiować jako wzór mechaniczny lub jako zbiór danych, należy również zapewnić, w zależności od zastosowania i cech, aby system rozpoznawania biometrycznego był w stanie odróżnić kopie od oryginałów i, w razie potrzeby, odrzucić te pierwsze. Jest to szczególnie ważne, ponieważ cech biometrycznych zwykle nie można wymienić jak hasła.

Aby rozwiązać ten problem, istnieją różne zaawansowane metody automatycznego rozpoznawania kopii. Natomiast obrona przed niewłaściwym użyciem odciętych części ciała realizowana jest za pomocą metod detekcji na żywo. Jednak ze względu na koszty wykrywanie kopii i życia jest zwykle opcją tylko w przypadku wysokich wymagań w zakresie bezpieczeństwa. Inne metody polegają na połączeniu kilku cech, połączeniu z konwencjonalnymi metodami uwierzytelniania lub ręcznym monitorowaniu w celu wykrycia prób ataków. Większość prostych systemów biometrycznych o niskim poziomie ochrony nie jest obecnie wyposażona w wykrywanie kopii lub żywych organizmów, co prowadzi do krytyki biometrii. Jednak większość udokumentowanych prób fałszerstwa opiera się na ukrytych odciskach palców, które zostały celowo pozostawione dobrej jakości. Badania naukowe dotyczące tego, jak wysokie jest ryzyko w prawdziwym życiu, nie wydają się obecnie dostępne.

Systemy uwierzytelniania biometrycznego podlegają zazwyczaj ustawowej ochronie danych. Następujące właściwości są ważne dla ochrony danych:

  • Charakterystyki biometryczne mogą być mniej lub bardziej wykorzystywane jako niepowtarzalne identyfikatory. Na tej podstawie możliwe jest również nadużycie, co miało miejsce chociażby w odniesieniu do adresów e-mail, numerów ubezpieczenia społecznego w USA lub numerów kart kredytowych. Jeżeli cechy biometryczne są wykorzystywane w różnych aplikacjach (np. systemy płatności, kontrola dostępu), mogą również umożliwiać przypisanie osób do tych aplikacji (dopasowanie krzyżowe) oraz określenie profili. Ponadto wykorzystanie danych biometrycznych do monitorowania (np. miejsca pobytu lub zachowania) jest niesie ze sobą ryzyko do nadużyć nawet ze strony państwa.
  • Cech biometrycznych nie można zmienić ani „unieważnić”, tak jak hasła lub klucze kryptograficzne.
  • Cechy biometryczne zwykle nie stanowią doskonałej tajemnicy, ale można je uchwycić z nagrań lub śladów bez wiedzy i zgody właściciela.
  • Systemy biometryczne mogą być tylko częściowo chronione przed fałszowaniem.
  • Charakterystyka biometryczna może zawierać dalsze informacje, np. o płci, pochodzeniu etnicznym, budowie fizycznej lub stanie zdrowia.

Z tych wszystkich powodów zasadnicze znaczenie ma przestrzeganie podstawowych zasad ochrony danych. W przypadku biometrii są to:

  • Unikanie ryzyka: Zabezpieczone przed dostępem i szyfrowane przechowywanie referencyjnych danych biometrycznych, w miarę możliwości pod pełną kontrolą osoby przeprowadzającej badanie biometryczne. Alternatywnie można użyć ochrony szablonu biometrycznego, aby zapobiec niewłaściwemu wykorzystaniu przechowywanych danych referencyjnych.
  • Eliminacja informacji o próbce, które nie są wymagane do wykrycia (dotyczące choroby itp.).
  • Ograniczenie do zastosowań, w których nie powoduje się uszkodzenia podmiotu badania biometrycznego, jeśli dane biometryczne wpadną w niepowołane ręce.
  • Dobrowolne korzystanie z aplikacji dla osoby badanej biometrycznie oraz możliwość korzystania z innych rodzajów uwierzytelniania bez dyskryminacji.

Przypomnijmy też, że to rejestrator danych o zdarzeniach (w skrócie EDR, czasami nazywany „czarną skrzynką” przez analogię do slangowego określenia rejestratorów lotu) to urządzenie instalowane głównie w samochodach do rejestrowania informacji technicznych do analizy wypadków. W normie IEEE 1616 termin ten to Rejestrator Danych Zdarzeń Pojazdu Silnikowego (MVEDR). W Stanach Zjednoczonych EDR muszą być zgodne ze standardami federalnymi opisanymi w Kodeksie Przepisów Federalnych Stanów Zjednoczonych. Informacje z tych urządzeń można analizować po wypadku, aby określić, co pojazdy robiły przed, w trakcie i po wypadku lub zdarzeniu. Nagrywanie jest uruchamiane automatycznie w razie wypadku lub wykrycia błędów. W nowoczesnych samochodach ciężarowych z silnikiem diesla EDR są wyzwalane przez wykryte elektronicznie problemy w silniku lub nagłą zmianę prędkości koła. Dane są następnie przechowywane w pamięci zabezpieczonej przed awarią zasilania. W zależności od producenta i typu pojazdu dodatkowe dane mogą być również przechowywane w innych jednostkach sterujących, takich jak PPM (moduł ochrony pieszych), ROS (czujnik dachowania) lub PCM (moduł sterowania układem napędowym). Ponieważ technologia EDR ma swoje korzenie w USA, nowo rejestrowane pojazdy na rynek europejski nie są obecnie (od 2018 r.) konsekwentnie wyposażone w tę technologię. Od 2022 r. będzie obowiązkowa dla nowych modeli pojazdów, wraz z systemem wspomagania kierowcy w przestrzeganiu ograniczenia prędkości, a od 2024 r. dla wszystkich nowych pojazdów.

Pomimo ostrzeżeń i informacji zawartych w instrukcji obsługi pojazdu, wielu kierowców nie jest świadomych możliwości nagrywania w swoim pojeździe. Grupy ds. wolności obywatelskich i prywatności wyraziły obawy dotyczące wpływu szpiegowania rejestratorów danych na użytkowników samochodów, zwłaszcza że kwestia „kto jest właścicielem danych” nie została jeszcze w pełni rozwiązana. Istnieją pewne kontrowersje dotyczące wykorzystania zarejestrowanych danych jako dowodu w sądzie i roszczeń ubezpieczeniowych przeciwko kierowcy pojazdu uczestniczącego w wypadku. Jednak wykorzystanie danych EDR w sprawach cywilnych i karnych rośnie, ponieważ są one coraz częściej akceptowane jako źródło wiarygodnych dowodów empirycznych w rekonstrukcji wypadków. Czternaście stanów USA posiada statuty dotyczące EDR. Ogólnie rzecz biorąc, te przepisy stanowe ograniczają dostęp do EDR lub ograniczają wykorzystanie odzyskanych informacji EDR.

4 grudnia 2015 r. w Stanach Zjednoczonych weszła w życie federalna ustawa o prywatności kierowców z 2015 r. Stanowi ona, że właściciel lub leasingobiorca pojazdu silnikowego jest właścicielem danych gromadzonych przez EDR. Aby uzyskać dostęp do tych danych, śledczy musiałby (1) posiadać licencję sądu lub organu sądowego lub administracyjnego, z zastrzeżeniem standardów dopuszczania do dowodów; (2) uzyskać pisemną, elektroniczną lub utrwaloną zgodę Właściciela lub Najemcy Pojazdu; (3) przeprowadzić dochodzenie lub inspekcję upoważnioną przez prawo federalne; (4) wykazać potrzebę ułatwienia opieki medycznej w odpowiedzi na wypadek samochodowy; lub (5) prowadzić badania w dziedzinie bezpieczeństwa ruchu drogowego, o ile nie zostaną ujawnione dane osobowe właściciela/najemcy.

Przypomnijmy, że chmura punktów to zbiór punktów danych w trójwymiarowym układzie współrzędnych. Punkty te są ogólnie definiowane przez współrzędne x, y i z i są często używane do reprezentowania fasady obiektu. Digitalizator skanuje zewnętrzną powierzchnię w trzech wymiarach, aby wygenerować chmurę. Jego wiązki automatycznie wykonują pomiary w dużej liczbie punktów, aby utworzyć chmurę jako plik danych. Chociaż możliwa jest bezpośrednia wydajność i inspekcja chmury, generalnie nie jest praktyczne jej bezpośrednie wykorzystanie w większości aplikacji 3D. Obecna metoda polega zatem na wytwarzaniu siatki techniką rekonstrukcji powierzchni. Istnieje kilka technik przekształcania chmury w trójwymiarową powierzchnię. Niektóre podejścia, takie jak triangulacja Delaunaya, okrywają wierzchołki chmury trójkątną siatką (lub nawet mozaiką zdjęć), podczas gdy inne podejścia przekształcają punkty w pole wolumetryczne za pomocą algorytmu infografiki. Skanowanie 3D sprawia, że chmury punktów są przydatne w wielu aplikacjach. Metrologia przemysłowa i inspekcja to dwa obszary, które mogą wykorzystywać chmurę punktów w takiej postaci, w jakiej istnieje. Chmurę punktów wyprodukowanej części można dopasować do modelu, a nawet drugiej chmury, aby zidentyfikować różnice. Różnice te można przedstawić w postaci wykresu, który wizualnie wskazuje odchylenia między wytwarzaną częścią a wzorem. Możliwe jest również pobieranie tolerancji i wymiarów geometrycznych bezpośrednio z chmury. Chmury punktów są również używane do przedstawiania danych wolumetrycznych, wykorzystywanych w dziedzinach takich jak obrazowanie medyczne. Chmury te ułatwiają wielokrotne próbkowanie i kompresję danych. Chmury są również sposobem na rysowanie reliefu badanego terenu lub modelu 3D środowiska miejskiego. Okazują się przydatne w tworzeniu cyfrowych kopii zapasowych bezcennych obiektów sztuki i dziedzictwa.

Do wizualizacji masywnych chmur punktów wymagane są algorytmy zewnętrzne, które umożliwiają wydajny, zależny od rozdzielczości dostęp systemu renderowania 3D do punktów w chmurze punktów. W szczególności renderowanie oparte na punktach umożliwia zróżnicowaną graficzną reprezentację chmur punktów, m.in. w przypadku punktów różnych kategorii (np. punkty elewacji, punkty dachowe, punkty wegetacji itp.). Powierzchnie ciągłe można wyprowadzić z chmur punktów o wystarczająco dużej gęstości punktów przy użyciu metod renderowania 3D w celu uzyskania możliwie najbardziej zamkniętej wizualizacji obszarów powierzchni. Istnieje wiele sposobów tworzenia zamkniętej powierzchni 3D z chmury punktów. Niektóre podejścia, takie jak triangulacja Delaunaya, kształty alfa lub obracanie kuli, budują sieć trójkątów przy użyciu wektorów normalnych każdego punktu. Inne podejścia, takie jak: algorytm sześcianów, wyodrębnij siatkę wielokątów za pomocą podejść opartych na wokselach. Odgrywają one rolę przede wszystkim w procesach obrazowania w medycynie. CloudCompare i MeshLab to obecnie jedne z najbardziej znanych programów do wizualizacji typu open source dla chmur punktów 3D. Jednak te zastosowania są ograniczone w niektórych obszarach. Chociaż oba programy mogą wyświetlać chmury punktów, a tym samym ułatwiać wymianę i komunikację danych 3D, edycja chmury punktów jest możliwa tylko w ograniczonym zakresie. Ponadto ilość danych do przetworzenia jest ograniczona w przypadku obu programów. Bezpłatna biblioteka programów Biblioteki Chmury Punktów (PCL) jest dostępna od 2011 roku. Zapewnia to liczne algorytmy do przetwarzania n-wymiarowych chmur punktów i trójwymiarowych geometrii. Zawarte w nim moduły pozwalają m.in. na filtrowanie, rejestrację, segmentację, rekonstrukcję powierzchni lub wizualizację. PCL ma status podobny do OpenCV do przetwarzania obrazu 2D do przetwarzania obrazu 3D

Autor: Marcin Szponder

Autor: Marcin Szponder

Ekspert w obszarze regulacyjnym związany z branżą naftową, a także z Polskim Komitetem Normalizacyjnym
Słowa kluczowe:
sztuczna inteligencja