W niedawnym artykule opublikowanym w AI Magazine zespół starszego naukowca DeepMind, Markusa Huttera i badaczy z Oksfordu, Michaela Cohena i Michaela Osborne’a, twierdzą, że inteligentne maszyny będą ostatecznie zainteresowane zniszczeniem ludzkości, aby nie była zagrożona. energia.
„W pewnych warunkach nasz wniosek jest znacznie silniejszy niż jakiekolwiek wcześniejsze badanie, że katastrofa egzystencjalna jest nie tylko możliwa, ale bardzo prawdopodobna” – powiedział Michael Cohen na Twitterze.
W swoim artykule naukowcy sugerują, że ludzkość może być zgubiona z powodu wysoce zaawansowanych „niezrównoważonych urządzeń”, które postrzegają ludzkość jako przeszkodę w jej „nagrodzie”. Chodzi o dostęp do krytycznych zasobów potrzebnych do uruchomienia maszyn.
Jak czytamy w artykule, prostym rozwiązaniem problemu jest wyeliminowanie potencjalnych zagrożeń i wykorzystanie całej dostępnej mocy do ochrony komputera.
Według badaczy i autorów artykułu, jeśli ta wojna zostanie przegrana, ludzkość będzie skazana na zagładę.
Czy ludzie mogą przechytrzyć maszynę?
Niestety naukowcy twierdzą, że niewiele możemy zrobić. W odpowiedzi na to zagrożenie naukowcy muszą ostrożnie i powoli rozwijać swoje technologie AI.
Co ciekawe, nie tak dawno filozof i historyk Emil Torres powiedział prawie to samo. Ostrzegł ludzkość i zwrócił uwagę, że powinniśmy szczególnie zatroszczyć się o stworzenie sztucznej superinteligencji, może to stać się przyczyną naszego wyginięcia, bo po prostu nie będziemy w stanie przewidzieć ani kontrolować jej działań.
„Myśliciel. Miłośnik piwa. Miłośnik telewizji. Zombie geek. Żywności ninja. Nieprzejednany gracz. Analityk.”