A OpenAI divulgou nesta terça-feira, dia 15, que o seu modelo de inteligência artificial (IA) mais potente, o GPT-4, pode ser utilizado para moderação de conteúdo. A empresa afirma que o recurso pode aliviar a carga mental de um grande número de moderadores humanos.
“Tradicionalmente, o ônus dessa tarefa recaía sobre os moderadores humanos que analisam grandes quantidades de conteúdo para filtrar material tóxico e nocivo, apoiados por modelos de aprendizado de máquina específicos verticais menores”, afirma a OpenAI em seu blog. “O processo é inerentemente lento e pode causar estresse mental nos moderadores humanos”, complementa.
Segundo a criadora do ChatGPT, qualquer pessoa com acesso à API OpenAI pode criar seu próprio sistema de moderação assistido por IA. A partir de um documento com as diretrizes de política sobre conteúdo, o modelo de IA pode fazer julgamentos de moderação.
A promessa é que, com esse sistema, o processo de desenvolvimento e personalização de políticas de conteúdo seja reduzido de meses para horas.
Confira abaixo as etapas desse processo, segundo a própia OpenAI:
- Depois que uma diretriz de política é escrita, os especialistas em política podem criar um conjunto de dados de ouro, identificando um pequeno número de exemplos e atribuindo-lhes rótulos de acordo com a política.
- Em seguida, o GPT-4 lê a política e atribui rótulos ao mesmo conjunto de dados, sem ver as respostas.
- Ao examinar as discrepâncias entre os julgamentos do GPT-4 e os de um ser humano, os especialistas em políticas podem pedir ao GPT-4 que apresente um raciocínio por trás de seus rótulos, analise a ambigüidade nas definições de políticas, resolva a confusão e forneça mais esclarecimentos na política de acordo. Podemos repetir as etapas 2 e 3 até ficarmos satisfeitos com a qualidade da política.
Limitações
A OpenAI alerta, no entanto, que a moderação de conteúdo como uso de modelos de IA não é infalível.
“Julgamentos por modelos de linguagem são vulneráveis a vieses indesejados que podem ter sido introduzidos no modelo durante o treinamento. Como em qualquer aplicativo de IA, os resultados e a saída precisarão ser cuidadosamente monitorados, validados e refinados, mantendo os humanos no processo”, destacou a empresa.