OpenAI lança projeto de especificações do modelo para promover transparência na IA

O projeto de documento delineia uma abordagem em três vertentes que especifica o “comportamento desejado do modelo” da OpenAI e a forma como a empresa avalia as soluções de compromisso quando “surgem conflitos”.
14 de mayo, 2024

Numa tentativa de melhorar a responsabilidade e a transparência no desenvolvimento da inteligência artificial (IA), a OpenAI lançou um projeto preliminar de especificações do modelo. Este documento inédito descreve os princípios que orientam o comportamento do modelo na sua API e no ChatGPT, anunciou a empresa.

“Acreditamos que é importante que as pessoas possam compreender e discutir as escolhas práticas envolvidas na configuração do comportamento do modelo”, afirmou a empresa numa publicação no seu blogue. “A nossa investigação e experiência na conceção do comportamento do modelo e o trabalho em curso para informar os modelos futuros é uma continuação do nosso compromisso de melhorar o comportamento da IA utilizando o contributo humano e complementa o nosso trabalho coletivo e uma abordagem sistemática mais ampla da segurança”.

O comportamento do modelo – a forma como os modelos respondem aos comandos do utilizador, englobando vários aspectos como o tom, a personalidade e a duração da resposta – desempenha um papel fundamental nas interacções entre esta tecnologia e as pessoas. A sua modelação é uma tarefa complexa, uma vez que os modelos aprendem com diversos conjuntos de dados e podem encontrar objectivos contraditórios na prática. A modelação deste comportamento é ainda uma ciência incipiente, uma vez que os modelos não são explicitamente programados, mas aprendem com uma vasta gama de dados, segundo a OpenAI.

Uma abordagem em três níveis para moldar uma IA responsável

O projeto de documento delineia uma abordagem em três vertentes que especifica o “comportamento desejado do modelo” da OpenAI e a forma como a empresa avalia as soluções de compromisso quando “surgem conflitos”.

A primeira parte das especificações do modelo centra-se nos objetivos principais. Estes são princípios gerais que orientam o comportamento do modelo, incluindo ajudar os utilizadores a atingir os seus objetivos, o benefício da humanidade e uma reflexão positiva sobre a OpenAI. Estes princípios fundamentais também exigem que o comportamento do modelo respeite as “normas sociais e a legislação aplicável”.

Para além destes objetivos gerais, o documento também fornece instruções claras, a que o blogue se refere como “regras”. Estas regras foram concebidas para lidar com situações complexas e “ajudar a garantir a segurança e a legalidade” das ações da IA. Algumas destas regras incluem seguir as instruções do utilizador, cumprir as leis, evitar a criação de riscos de informação, respeitar os direitos e a privacidade dos utilizadores e evitar a produção de conteúdos inadequados ou NSFW (not safe for work).

Por último, a especificação do modelo reconhece que pode haver situações em que estes objetivos e regras “entrem em conflito”. Para contornar estas complexidades, o documento sugere comportamentos por defeito a seguir pelo modelo de IA. Estes comportamentos por defeito incluem assumir as melhores intenções dos utilizadores, ser útil sem “ultrapassar” os limites e encorajar interações respeitosas.

“Esta é a direção ideal que os modelos devem seguir e é ótimo ver a OpenAI a fazer um esforço com esta nova especificação sobre como um modelo se deve comportar de acordo com o utilizador com mais contexto e personalização, mas de forma mais ‘responsável”, afirmou Neil Shah. Vice-presidente de investigação e sócio da Counterpoint Research, uma empresa global de investigação e consultoria, em declarações ao Computerworld.

A ênfase da OpenAI na transparência e na colaboração

A OpenAI, na publicação do blogue, reconhece que a especificação do modelo é um “documento vivo”, o que significa que está aberto a comentários e a evoluir juntamente com o campo da IA. “A nossa intenção é utilizar a especificação do modelo como um guia para os investigadores e os rotuladores de dados criarem dados como parte de uma técnica denominada aprendizagem por reforço a partir de feedback humano (RLHF)”, afirma um outro documento da OpenAI que detalha a especificação do modelo. “A especificação, tal como os nossos próprios modelos, será continuamente actualizada com base no que aprendermos com a sua partilha e com o feedback das partes interessadas.”

A RLHF irá orientar a forma como um modelo se adapta melhor ao comportamento humano real, mas também torná-lo transparente com objetivos, princípios e regras declarados. Isto leva o modelo OpenAI para o próximo nível, tornando-o mais responsável e útil, disse Shah. “Embora seja um alvo em constante movimento ajustar a especificação, uma vez que existem muitas áreas cinzentas relativamente à forma como uma consulta é interpretada e qual é o objetivo final, o modelo tem de ser suficientemente inteligente e responsável para detetar se a consulta e a resposta são menos responsáveis”.

A especificação do modelo representa um passo significativo para alcançar uma IA ética. A empresa sublinha a importância de criar confiança junto dos utilizadores e do público, que interagem cada vez mais com sistemas de IA no seu quotidiano.