escuro
Inteligência artificial

OpenAI monta equipe para controlar “superinteligência artificial”

Dona do ChatGPT forma grupo de pesquisadores para “alinhar” IA e conter futuros riscos com evolução da tecnologia nos próximos anos

A OpenAI revelou na quarta-feira, dia 5 de julho, que está formando uma equipe de pesquisadores para conter os riscos da “superinteligência”, uma evolução das atuais inteligências artificiais que devem ultrapassar a dos humanos nas próximas décadas.

“Atualmente, não temos uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela se torne desonesta”, publicaram Jan Leike e Ilya Sutskever no blog da OpenAI. “Nossas técnicas atuais para alinhar a IA, como o aprendizado por reforço a partir do feedback humano, dependem da capacidade humana de supervisionar a IA. Mas os humanos não serão capazes de supervisionar de forma confiável sistemas de IA muito mais inteligentes do que nós”.

Diante desse desafio, a OpenAI decidiu criar uma nova equipe de superalinhamento, liderada por Sutskever e Leike. Esse time terá acesso a 20% da capacidade de computação atual da empresa nos próximos quatro anos.

Riscos à humanidade

Os pesquisadores da OpenAI acreditam que a “superienteligência” deve surgir ainda nesta década. Para eles, a tecnologia tem um enorme potencial para ajudar o mundo, mas também oferece um grande risco para a humanidade.

“A superinteligência será a tecnologia de maior impacto que a humanidade já inventou e poderá nos ajudar a resolver muitos dos problemas mais importantes do mundo. Mas o vasto poder da superinteligência também pode ser muito perigoso e pode levar ao enfraquecimento da humanidade ou até mesmo à extinção humana”, afirmam na postagem do blog.

Total
0
Shares
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados
Total
0
Share