Zamiast tego to hasło mówi mniej o tym, co firma robi, a więcej o tym, dlaczego to robi. Ogłoszenia o pracę Helsinga są przepełnione idealizmem i wzywają ludzi przekonanych, że „wartości demokratyczne są warte ochrony”.
Trzech założycieli Helsinga mówi o inwazji Rosji na Krym w 2014 roku jako o przebudzeniu, że cała Europa musi być gotowa do odpowiedzi na rosyjską agresję. „Coraz bardziej martwiłem się, że w naszych otwartych społeczeństwach pozostajemy w tyle za kluczowymi technologiami” — mówi Reil. To uczucie wzrosło, gdy patrzył, jak w 2018 roku pracownicy Google protestowali przeciwko umowie z Pentagonem, w ramach której Google pomogłoby wojsku wykorzystać sztuczną inteligencję do analizy nagrań z dronów. Ponad 4000 pracowników podpisało list, w którym argumentowali, że wspieranie wojskowego nadzoru i jego potencjalnie śmiertelne skutki jest moralnie i etycznie nieodpowiedzialne ze strony Google. W odpowiedzi Google powiedział, że nie przedłuży umowy.
„Po prostu nie rozumiałem logiki tego” — mówi Reil. „Jeśli chcemy żyć w otwartych i wolnych społeczeństwach, być tym, kim chcemy być i mówić to, co chcemy powiedzieć, musimy być w stanie ich chronić. Nie możemy ich brać za pewnik”. Martwił się, że jeśli Big Tech, ze wszystkimi swoimi zasobami, zostanie odwiedziony od współpracy z przemysłem obronnym, to Zachód nieuchronnie pozostanie w tyle. „Czułem, że jeśli oni tego nie robią, jeśli najlepsi inżynierowie Google nie są przygotowani do pracy nad tym, kto jest?”
Zwykle trudno jest stwierdzić, czy produkty obronne działają tak, jak twierdzą ich twórcy. Firmy, które je sprzedają, w tym Helsing, twierdzą, że przejrzystość w zakresie szczegółów zagroziłaby skuteczności ich narzędzi. Ale kiedy rozmawiamy, założyciele próbują przedstawić obraz tego, co sprawia, że jego sztuczna inteligencja jest kompatybilna z demokratycznymi reżimami, którym chce sprzedawać. „Naprawdę bardzo cenimy sobie prywatność i wolność i nigdy nie zrobilibyśmy takich rzeczy jak rozpoznawanie twarzy”, mówi Scherf, twierdząc, że firma chce pomóc siłom zbrojnym w rozpoznawaniu przedmiotów, a nie ludzi. „Są pewne rzeczy, które nie są potrzebne do misji obronnej”.
Ale pełzająca automatyzacja w śmiercionośnej branży, takiej jak obrona, wciąż rodzi drażliwe problemy. Jeśli wszystkie systemy oferowane przez Helsing to zwiększona świadomość pola bitwy, która pomaga siłom zbrojnym zrozumieć, gdzie znajdują się cele, nie stwarza to żadnych problemów, mówi Herbert Lin, starszy pracownik naukowy w Centrum Bezpieczeństwa Międzynarodowego i Współpracy Uniwersytetu Stanforda. Uważa jednak, że kiedy ten system zostanie wprowadzony, decydenci znajdą się pod presją, aby połączyć go z autonomiczną bronią. „Decydenci muszą się oprzeć pomysłowi robienia tego”, mówi Lin, dodając, że ludzie, a nie maszyny, muszą ponosić odpowiedzialność za błędy. Jeśli sztuczna inteligencja „zabija traktor, a nie ciężarówkę lub czołg, to jest źle. Kto poniesie za to odpowiedzialność?”
Riel twierdzi, że Helsing nie produkuje broni autonomicznej. „My robimy coś przeciwnego” – mówi. „Tworzymy systemy sztucznej inteligencji, które pomagają ludziom lepiej zrozumieć sytuację”.
Chociaż operatorzy mogą wykorzystać platformę Helsing do zestrzelenia drona, w tej chwili to człowiek podejmuje tę decyzję, a nie sztuczna inteligencja. Pojawiają się jednak pytania o to, ile naprawdę autonomii mają ludzie, kiedy ściśle współpracują z maszynami. „Im mniej sprawisz, że użytkownicy zrozumieją narzędzia, z którymi pracują, traktują je jak magię”, mówi Jensen z Centrum Studiów Strategicznych i Międzynarodowych, twierdząc, że oznacza to, że użytkownicy wojskowi mogą ufać sztucznej inteligencji za bardzo lub za mało.