Szef sztucznej inteligencji Google’a ostrzega ludzkość przed konsekwencjami tej technologii, wzywa do wprowadzenia rygorystycznych zasad

Według The Guardian świat musi potraktować zagrożenie stwarzane przez sztuczną inteligencję tak samo poważnie, jak kryzys klimatyczny i nie może sobie pozwolić na opóźnianie reakcji na nią – ostrzegł lider technologii.

Przemawiając, gdy rząd brytyjski przygotowuje się do szczytu w sprawie bezpieczeństwa sztucznej inteligencji, Hassabis powiedział, że organ podobny do Międzyrządowego Zespołu ds. Zmian Klimatu (IPCC) mógłby zacząć nadzorować branżę.

Hassabi, szef działu sztucznej inteligencji Google w Wielkiej Brytanii, powiedział, że świat musi pilnie podjąć działania, aby stawić czoła niebezpieczeństwom stwarzanym przez technologię, w tym rozwojowi broni biologicznej i egzystencjalnemu zagrożeniu stwarzanemu przez superinteligentne systemy.

„Musimy potraktować zagrożenia związane ze sztuczną inteligencją tak samo poważnie, jak inne główne globalne wyzwania, takie jak zmiany klimatyczne” – powiedział. „Koordynacja skutecznej globalnej reakcji na ten problem zajęła społeczności międzynarodowej zbyt dużo czasu i teraz ponosimy tego konsekwencje”. Nie możemy sobie pozwolić na takie opóźnienie w przypadku sztucznej inteligencji.

Hassabis, którego jednostka opracowała przełomowe oprogramowanie AlphaFold mapujące struktury białek, powiedział, że sztuczna inteligencja może być „jedną z najważniejszych i najbardziej przydatnych technologii, jakie kiedykolwiek wynaleziono”.

Hassabi powiedział, że sztuczna inteligencja może zapewnić „niesamowite możliwości” w takich dziedzinach jak medycyna i nauka, przyznał jednak, że technologia ta budzi obawy egzystencjalne.

Największe obawy budzi potencjalny rozwój sztucznej inteligencji ogólnej – systemów wyposażonych w ludzką lub nadludzką inteligencję, które mogłyby wymknąć się ludzkiej kontroli.

Móc. był jednym z sygnatariuszy listu otwartego ostrzegającego, że zagrożenie wyginięciem sztucznej inteligencji należy uznać za zagrożenie publiczne na równi z pandemią i wojną nuklearną.

Powiedział, że obecne systemy sztucznej inteligencji „nie są niebezpieczne, ale przyszłe generacje mogą takie być, gdy będą miały dodatkowe możliwości, takie jak planowanie, pamięć i inne rzeczy… Będą fenomenalne w dobrych przypadkach użycia, ale będą też niebezpieczne. „ ”.

Brinley Hamptone

„Myśliciel. Miłośnik piwa. Miłośnik telewizji. Zombie geek. Żywności ninja. Nieprzejednany gracz. Analityk.”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *