Oświadczenie ekspertów opublikowała organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.
Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany "ojcem chrzestnym sztucznej inteligencji", który odszedł z Google'a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.
"Sądzę, że jeżeli coś pójdzie źle w (rozwoju) tej technologii, to może pójść całkiem źle. (...) Chcemy współpracować z rządem, aby temu zapobiec" - powiedział niedawno Altman przed komisją Senatu USA. Wyjaśnił też, że szczególnie niepokojący jest scenariusz, w którym AI "rozwinie zdolność do autoreplikacji i wyrwie się na wolność".
Hinton ostrzega, że coraz bardziej niepokoi go błyskawiczna ewolucja technologii AI, w tym jej zdolność "rozwijania prostego rozumowania poznawczego" - relacjonuje "USA Today".
Ekspert powiedział też niedawno, że najgorszy scenariusz dotyczący rozwoju AI jest realny i "całkiem możliwe jest, że ludzkość jest tylko przejściową fazą rozwoju inteligencji".
W pisemnym dokumencie przygotowanym przed wystąpieniem w Senacie Altman napisał, że zdaniem niezależnych ekspertów obszary, które należy nadzorować w rozwoju AI, to jej zdolność "generowania nieprawdziwych informacji", czyli tzw. halucynowania, a także dostarczenie informacji na temat broni konwencjonalnej i niekonwencjonalnej.
Jak podkreśla Hinton, to że AI może uczyć się zupełnie nieoczekiwanego zachowania ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni.
Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - uważa Hinton.
Jednak inni eksperci oceniają, że przesadny niepokój związany z rozwojem AI jest nieuzasadniony, ponieważ jest to "niezmiernie wyrafinowana platforma programująca, która jednak może pójść tylko tak daleko, jak pozwolą jej ludzie" - pisze "USA Today".
W wywiadzie dla "New York Timesa" z początku maja Hinton powiedział:
"Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę".
sm/