AI zagrożeniem dla bezpieczeństwa narodowego USA? Zapadła decyzja

Świat technologii jest zachwycony tym, jakie możliwości daje sztuczna inteligencja. Jednak każde zagadnienie ma dwie strony medalu. Rząd Stanów Zjednoczonych z dystansem podchodzi do AI. Pojawiły się również stosowne zakazy dla pracowników administracji.

AI zagrożeniem dla bezpieczeństwa narodowego USA? Zapadła decyzja
Podaj dalej

Od wielu lat wiadomo, że narzędzia stworzone z dobrą intencją, mogą być użyte w niewłaściwy sposób do kreowania zła. Dlatego w niektórych przypadkach dobrze jest mieć nad nimi kontrolę i ograniczać dostęp do nich postronnym ludziom. W przypadku AI sprawa jest skomplikowana. Z jednej strony sztuczna inteligencja daje wiele możliwości. Z drugiej sposób analizy danych przez takie narzędzia budzi kontrowersje. I może być przyczyną wycieku tajnych informacji. Ważnych z punktu widzenia bezpieczeństwa narodowego USA.

Zakaz używania Copilot w USA

Jedna z najnowszych decyzji amerykańskiej administracji to zakaz używania Copilot. Popularnego asystenta AI od Microsoft, którego do swoich zadań nie mogą wykorzystywać pracownicy Kongresu USA na urządzeniach rządowych. Nasuwa się pytanie o bezpieczeństwo narodowe i prywatność danych w kontekście sztucznej inteligencji. Decyzja, o której poinformowało Axios, opiera się na memo od Catherine Szpindor, Głównego Oficera Administracyjnego Izby Reprezentantów. Podkreśliła ona ryzyko „wycieku danych Kongresu do chmur niezatwierdzonych przez Izbę”.

copilot

Czy parlament w Polsce powinien iść tą samą drogą?

Czy podobna regulacja mogłaby znaleźć zastosowanie w polskim Sejmie? Przed podjęciem decyzji warto przyjrzeć się przyczynom, dla których Copilot oraz wcześniej ChatGPT – asystent AI rozwijany przez OpenAI, zostały uznane za potencjalne zagrożenie w Stanach Zjednoczonych. Chodzi przede wszystkim o ochronę wrażliwych danych przed możliwością nieautoryzowanego dostępu poprzez narzędzia AI. Istnieje prawdopodobieństwo, że mogą one przesyłać informacje do zewnętrznych serwerów.

Działania Kongresu wobec ChatGPT

Kongres Stanów Zjednoczonych już wcześniej podjął kroki w celu ograniczenia używania ChatGPT. Zakazał wersji darmowej na komputerach Izby, ale pozwolił na pracę z wersją płatną (ChatGPT Plus) ze względu na bardziej rygorystyczne kontrole prywatności. To pokazuje, że odpowiedzialne wdrożenie AI w procesy rządowe jest możliwe, lecz wymaga szczegółowej analizy ryzyka oraz dostosowania narzędzi do specyficznych potrzeb bezpieczeństwa.

Reakcja Microsoft i dalsze kroki

W odpowiedzi na te ograniczenia, Microsoft podkreślił potrzebę wyższych wymagań bezpieczeństwa dla użytkowników rządowych. Zapowiedział wprowadzenie serii narzędzi i usług przeznaczonych dla sektora publicznego. W tym usługę Azure OpenAI dla klasyfikowanych urządzeń oraz nową wersję asystenta Copilot dla Microsoft 365. Te narzędzia mają oferować wyższe poziomy bezpieczeństwa. W ten sposób Microsoft zachęca do współpracy z rządem.

Wnioski dla Polski w sprawie AI

Amerykańska administracja od wielu dekad przykłada dużą uwagę do bezpieczeństwa narodowego. Czasami można odnieść wrażenie, że jest to już zużyty do granic możliwości slogan. Jednak prawda jest zupełnie inna. Jak widać na przykładzie nowych regulacji dotyczących używania AI w USA.

Czy Polska powinna pójść śladem Stanów Zjednoczonych i wprowadzić podobne regulacje? Biorąc pod uwagę rosnącą rolę AI w życiu codziennym oraz potrzebę ochrony danych osobowych i informacji klasyfikowanych, wydaje się to krokiem wartym rozważenia. Polski Sejm mógłby wziąć pod uwagę aktualne wydarzenia jako punkt wyjścia do debaty na temat bezpiecznego i odpowiedzialnego wdrażania technologii AI w sektorze publicznym, z naciskiem na ochronę bezpieczeństwa narodowego i prywatności danych obywateli.

Przeczytaj również