OpenAI propõe uso do GPT-4 para moderação de conteúdo

A OpenAI divulgou nesta terça-feira, dia 15, que o seu modelo de inteligência artificial (IA) mais potente, o GPT-4, pode ser utilizado para moderação de conteúdo. A empresa afirma que o recurso pode aliviar a carga mental de um grande número de moderadores humanos.

“Tradicionalmente, o ônus dessa tarefa recaía sobre os moderadores humanos que analisam grandes quantidades de conteúdo para filtrar material tóxico e nocivo, apoiados por modelos de aprendizado de máquina específicos verticais menores”, afirma a OpenAI em seu blog. “O processo é inerentemente lento e pode causar estresse mental nos moderadores humanos”, complementa.

Segundo a criadora do ChatGPT, qualquer pessoa com acesso à API OpenAI pode criar seu próprio sistema de moderação assistido por IA. A partir de um documento com as diretrizes de política sobre conteúdo, o modelo de IA pode fazer julgamentos de moderação.

A promessa é que, com esse sistema, o processo de desenvolvimento e personalização de políticas de conteúdo seja reduzido de meses para horas.

Confira abaixo as etapas desse processo, segundo a própia OpenAI:

Limitações

A OpenAI alerta, no entanto, que a moderação de conteúdo como uso de modelos de IA não é infalível.

“Julgamentos por modelos de linguagem são vulneráveis ​​a vieses indesejados que podem ter sido introduzidos no modelo durante o treinamento. Como em qualquer aplicativo de IA, os resultados e a saída precisarão ser cuidadosamente monitorados, validados e refinados, mantendo os humanos no processo”, destacou a empresa.