Nowa technologia Google może odczytać Twoją mowę ciała — bez aparatów

0
263

Co jeśli twój komputer postanowił nie wypuszczać dzwonka z powiadomieniem, ponieważ zauważył, że nie siedzisz przy biurku? Co się stanie, jeśli Twój telewizor zobaczy, że wstajesz z kanapy, aby otworzyć drzwi wejściowe, i automatycznie wstrzymał odtwarzanie Netflix, a następnie wznowił odtwarzanie, gdy siadasz z powrotem? Co by było, gdyby nasze komputery czerpały więcej społecznych wskazówek z naszych ruchów i nauczyły się być bardziej rozważnymi towarzyszami?

Brzmi futurystycznie i być może bardziej niż trochę inwazyjnie — komputer obserwuje każdy Twój ruch? Ale poczujesz się mniej przerażająco, gdy dowiesz się, że te technologie nie muszą polegać na kamerze, aby zobaczyć, gdzie jesteś i co robisz. Zamiast tego używają radaru. Dział Zaawansowanych Technologii i Produktów Google — lepiej znany jako ATAP, departament odpowiedzialny za nietypowe projekty, takie jak dżinsowa kurtka dotykowa — przez ostatni rok badał, w jaki sposób komputery mogą wykorzystywać radar, aby zrozumieć nasze potrzeby lub zamiary, a następnie odpowiednio na nas reagować.

To nie pierwszy raz, kiedy Google korzysta z radaru, aby zapewnić swoim gadżetom orientację przestrzenną. W 2015 roku Google zaprezentował Soli, czujnik, który może wykorzystywać fale elektromagnetyczne radaru do wykrywania precyzyjnych gestów i ruchów. Po raz pierwszy zaobserwowano to w zdolności Google Pixel 4 do wykrywania prostych gestów dłoni, dzięki czemu użytkownik mógł odkładać alarmy lub wstrzymywać muzykę bez konieczności fizycznego dotykania smartfona. Niedawno czujniki radarowe zostały wbudowane w inteligentny wyświetlacz Nest Hub drugiej generacji, aby wykrywać ruchy i wzorce oddychania osoby śpiącej obok. Urządzenie było wtedy w stanie śledzić sen osoby bez konieczności zakładania paska na zegarek.

Ten sam czujnik Soli jest używany w tej nowej rundzie badań, ale zamiast używać danych wejściowych czujnika do bezpośredniego sterowania komputerem, ATAP zamiast tego wykorzystuje dane z czujnika, aby umożliwić komputerom rozpoznawanie naszych codziennych ruchów i dokonywanie nowych wyborów.

„Wierzymy, że w miarę jak technologia staje się coraz bardziej obecna w naszym życiu, uczciwie jest zacząć prosić samą technologię, aby wzięła od nas kilka dodatkowych wskazówek”, mówi Leonardo Giusti, szef działu projektowania w ATAP. W ten sam sposób, w jaki twoja mama może przypomnieć ci o złapaniu parasola przed wyjściem do drzwi, być może twój termostat może przekazać tę samą wiadomość, gdy przejdziesz obok i zerkniesz na niego – lub telewizor może ściszyć głośność, jeśli wykryje, że zasnął na kanapie.

Badania radarowe

Giusti mówi, że większość badań opiera się na proksemice, badaniu tego, w jaki sposób ludzie wykorzystują przestrzeń wokół siebie do pośredniczenia w interakcjach społecznych. Gdy zbliżasz się do drugiej osoby, oczekujesz większego zaangażowania i intymności. Zespół ATAP wykorzystał tę i inne wskazówki społeczne, aby ustalić, że ludzie oraz urządzenia mają własne koncepcje przestrzeni osobistej.

Radar może wykryć, że zbliżasz się do komputera i wchodzisz do jego przestrzeni osobistej. Może to oznaczać, że komputer może następnie wykonać określone czynności, takie jak uruchamianie ekranu bez konieczności naciskania przycisku. Ten rodzaj interakcji istnieje już w obecnych inteligentnych wyświetlaczach Google Nest, chociaż zamiast radaru Google wykorzystuje ultradźwiękowe fale dźwiękowe do pomiaru odległości osoby od urządzenia. Gdy Nest Hub zauważy, że się zbliżasz, podświetla aktualne przypomnienia, wydarzenia w kalendarzu lub inne ważne powiadomienia.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj