escuro
inteligência-artificial

OpenAI propõe uso do GPT-4 para moderação de conteúdo

Criadora do ChatGPT afirma que modelo de IA é capaz de reduzir desenvolvimento de políticas de conteúdo para apenas algumas horas

A OpenAI divulgou nesta terça-feira, dia 15, que o seu modelo de inteligência artificial (IA) mais potente, o GPT-4, pode ser utilizado para moderação de conteúdo. A empresa afirma que o recurso pode aliviar a carga mental de um grande número de moderadores humanos.

“Tradicionalmente, o ônus dessa tarefa recaía sobre os moderadores humanos que analisam grandes quantidades de conteúdo para filtrar material tóxico e nocivo, apoiados por modelos de aprendizado de máquina específicos verticais menores”, afirma a OpenAI em seu blog. “O processo é inerentemente lento e pode causar estresse mental nos moderadores humanos”, complementa.

Segundo a criadora do ChatGPT, qualquer pessoa com acesso à API OpenAI pode criar seu próprio sistema de moderação assistido por IA. A partir de um documento com as diretrizes de política sobre conteúdo, o modelo de IA pode fazer julgamentos de moderação.

A promessa é que, com esse sistema, o processo de desenvolvimento e personalização de políticas de conteúdo seja reduzido de meses para horas.

Confira abaixo as etapas desse processo, segundo a própia OpenAI:

  • Depois que uma diretriz de política é escrita, os especialistas em política podem criar um conjunto de dados de ouro, identificando um pequeno número de exemplos e atribuindo-lhes rótulos de acordo com a política.
  • Em seguida, o GPT-4 lê a política e atribui rótulos ao mesmo conjunto de dados, sem ver as respostas.
  • Ao examinar as discrepâncias entre os julgamentos do GPT-4 e os de um ser humano, os especialistas em políticas podem pedir ao GPT-4 que apresente um raciocínio por trás de seus rótulos, analise a ambigüidade nas definições de políticas, resolva a confusão e forneça mais esclarecimentos na política de acordo. Podemos repetir as etapas 2 e 3 até ficarmos satisfeitos com a qualidade da política.

Limitações

A OpenAI alerta, no entanto, que a moderação de conteúdo como uso de modelos de IA não é infalível.

“Julgamentos por modelos de linguagem são vulneráveis ​​a vieses indesejados que podem ter sido introduzidos no modelo durante o treinamento. Como em qualquer aplicativo de IA, os resultados e a saída precisarão ser cuidadosamente monitorados, validados e refinados, mantendo os humanos no processo”, destacou a empresa.

Total
0
Shares
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados
Total
0
Share