A OpenAI, startup da área de inteligência artificial (IA), está discutindo sobre quando lançar uma ferramenta capaz de determinar se uma imagem foi criada a partir do DALL-E 3 — seu modelo próprio de arte generativa de IA. Mesmo em pauta, esse projeto parece estar distante de se tornar real.

Em entrevista ao TechCrunch, Sandhini Agarwal, pesquisadora da OpenAI com foco em segurança e política, destacou que, embora a ferramenta apresente uma precisão “muito boa”, ela ainda não lida com os padrões de qualidade da OpenAI.

“Há a questão de lançar uma ferramenta que não é confiável, visto que as decisões que ela poderia tomar poderiam afetar significativamente as fotos, como se uma obra é vista como pintada por um artista ou como inautêntica e enganosa”, afirma Agarwal.

A ferramenta

Com uma ferramenta 100% eficaz, a OpenAI poderia estabelecer novos formatos para desassociar imagens reais de imagens criadas artificialmente, mas a criação dessa ferramenta lida com outro embate envolvendo o avanço da IA – como a sua ferramenta capaz de detectar texto gerado por IA, que acabou sendo usada por modelos de geração de texto lançados por fornecedores terceirizados.

“Uma das razões pelas quais atualmente [o classificador é] específico para DALL-E 3 é porque esse é, tecnicamente, um problema muito mais tratável”, disse Agarwal. “[Um detector geral] não é algo que estamos fazendo agora… Mas dependendo de onde [a ferramenta classificadora] vai, não estou dizendo que nunca faremos isso.”