AI precisa ser regulamentada, diz CTO do criador do ChatGPT

Total de Visitas 21 , Visitas Hoje 1 


Em uma entrevista para Equipe publicado neste domingo (5), o CTO da OpenAI, Mira Murati, alertou sobre os riscos ligados ao uso indevido da inteligência artificial. Referindo-se ao seu mundialmente famoso ChatGPT, a executiva reconhece que a ferramenta “pode ser usada por maus atores”, o que leva à necessidade de regulamentação urgente.

“Como governar o uso da IA ​​em linha com os valores humanos?”, disse Murati, em declaração inusitada a representantes de empresas globais, geralmente avessas a intervenções de órgãos reguladores. O argumento do executivo da OpenAI, porém, leva em conta o imenso poder do ChatGPT – e de seus pares – e seu impacto na sociedade.

Reconhecendo que a empresa não esperava “essa empolgação em trazer nosso filho ao mundo” – que rapidamente atingiu 100 milhões de usuários ativos mensais – Murati lembra que, apesar da projeção global do produto, a empresa continua sendo “um pequeno grupo de pessoas” que precisam de informações adicionais “que vão além das tecnologias”.

O que a OpenAI teme?

FonteAI/Divulgação.FonteAI/Divulgação.Fonte: OpenAI

Como a maioria da população mundial já sabe, o ChatGPT é uma “IA generativa” que fornece prontamente respostas, imagens e músicas em questão de segundos, a partir de simples prompts de texto. Mas, assim como alguém pode pedir uma dica de como fazer um “gato” para o Netflix do vizinho, outros podem pesquisar falhas em empresas para lançar um ataque cibernético.

Para bloquear esses riscos, grandes usuários de IA terão que recorrer a recursos de nuvem, hoje nas mãos de um pequeno grupo de empresas, como Microsoft, Google e Amazon. Além das questões antitruste, há o poder multiplicador das Big Techs.

questionado por Equipe se ainda é prematuro falar em envolvimento de órgãos reguladores, Murati é categórico: “não é muito cedo. É muito importante que todos comecem a se envolver, dado o impacto que essas tecnologias vão ter.”

Seja o primeiro a comentar

Faça um comentário

Seu e-mail não será publicado.


*