No momento em que governos de todo o mundo estudam a melhor forma de regular as inteligências artificiais, quatro grandes empresas do segmento estão se unindo na formação de um novo órgão que visa garantir o desenvolvimento seguro e responsável dos modelos de IA. Pelo menos, é o que dizem as big techs envolvidas.

A OpenAI, Microsoft, Google e Anthropic divulgaram, nesta quarta-feira (26), a criação do Frontier Model Forum, que juntará a experiência das empresas para desenvolver avaliações técnicas, identificando as melhores práticas e padrões de uso das IAs.

O foco do grupo será a “IA de fronteira”, modelos avançados de inteligência artificial e aprendizado de máquina que são perigosos o suficiente para representar “riscos graves à segurança pública”.

Em comunicado, a coalizão reuniu alguns objetivos centrais:

Inicialmente, o fórum contará com a colaboração das quatro empresas, mas o grupo diz que está aberto para outras organizações que desenvolvem ou implementam modelos de IA. Além disso, os novos aliados devem demonstrar compromisso com a segurança dos modelos de IA de fronteira.

Nos próximos meses, o Frontier Model Forum planeja formar com um conselho consultivo para avaliar prioridades, estabelecer um estatuto, sistema de governança e financiamento para realizar o esforço. A coalizão também consultará governos e sociedade civil.

Com informações de TechCrunch e Google.