Outro especialista em IA diz que ela pode destruir a humanidade

ROTANEWS176 06/06/2024 09:3

Depois que antigos e atuais funcionários da OpenAI divulgaram uma carta aberta alegando que estão sendo silenciados contra levantar questões de segurança, um dos signatários da carta fez uma previsão ainda mais aterrorizante: que as chances de a IA destruir ou prejudicar catastroficamente a humanidade são substanciais.

Reprodução/Foto-RN176 Crédito da imagem ilustrativa: n3m3/stablediffusionweb.com

Em entrevista ao The New York Times, o ex-pesquisador de governança da OpenAI, Daniel Kokotajlo, acusou a empresa de ignorar os riscos monumentais representados pela inteligência artificial geral (de sigla em inglês, AGI) porque seus tomadores de decisão estão muito encantados com suas possibilidades.

Kokotajlo disse:

“A OpenAI está realmente animada em construir a AGI, e eles estão correndo imprudentemente para serem os primeiros lá.”

A afirmação mais picante de Kokotajlo ao jornal, no entanto, foi que a chance da IA destruir a humanidade é de cerca de 70% – chances que você não aceitaria para nenhum grande evento da vida, mas que a OpenAI e seus aliados estão avançando de qualquer maneira.

O termo ‘p(doom)‘, que significa a probabilidade de que a IA traga a desgraça para a humanidade, é objeto de constante controvérsia no mundo do aprendizado de máquina.

Kokotajlo, de 31 anos, disse ao NYT que, depois que se juntou à OpenAI em 2022 e foi convidado a prever o progresso da tecnologia, ele se convenceu não apenas de que a indústria alcançaria a AGI até o ano de 2027, mas que havia uma grande probabilidade de que isso prejudicaria catastroficamente ou mesmo destruiria a humanidade.

Como observado na carta aberta, Kokotajlo e seus companheiros – que inclui antigos e atuais funcionários do Google DeepMind e da Anthropic, bem como Geoffrey Hinton, o chamado ‘padrinho da IA‘ que deixou a empresa Google no ano passado por preocupações semelhantes – estão afirmando seu “direito de alertar” o público sobre os riscos representados pela IA.

Kokotajlo ficou tão convencido de que a IA representava enormes riscos para a humanidade que, eventualmente, ele pessoalmente pediu ao CEO da OpenAI, Sam Altman, que a empresa precisava “se voltar à segurança” e passar mais tempo implementando grades de proteção para reinar na tecnologia em vez de continuar a torná-la mais inteligente.

Altman, segundo o relato do ex-funcionário, parecia concordar com ele na época, mas com o tempo parecer ser apenas uma lábia.

Farto, Kokotajlo deixou a empresa em abril, dizendo a sua equipe em um e-mail que havia “perdido a confiança de que a OpenAI se comportará de forma responsável” enquanto continua tentando construir IA de nível quase humano.

Ele escreveu em seu e-mail, que foi compartilhado com o NYT:

“O mundo não está pronto, e nós não estamos prontos. E estou preocupado que estejamos avançando independentemente e racionalizando nossas ações.”

Entre as saídas de grandes nomes e esse tipo de previsões aterrorizantes, as últimas notícias da OpenAI foram sombrias – e é difícil vê-la ficando mais ensolarada daqui para frente.

A empresa disse em comunicado após a publicação deste artigo:

“Estamos orgulhosos de nosso histórico fornecendo os sistemas de IA mais capazes e seguros e acreditamos em nossa abordagem científica para lidar com o risco. Concordamos que o debate rigoroso é crucial, dada a importância dessa tecnologia, e continuaremos a nos envolver com governos, sociedade civil e outras comunidades ao redor do mundo.

É também por isso que temos caminhos para os funcionários expressarem suas preocupações, incluindo uma linha direta de integridade anônima e um Comitê de Segurança e Proteção liderado por membros de nosso conselho e líderes de segurança da empresa.”

FONTE: OVNI HOJE