Site Overlay

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

O desenvolvimento da inteligência artificial causa preocupação em muita gente. Pensando nisso, Google, Microsoft, OpenAI e Anthropic criaram o Frontier Model Forum, que visa garantir o desenvolvimento seguro e responsável de modelos de IA. A iniciativa, porém, é vista com ceticismo: especialistas consideram que pode ser só uma forma de evitar a regulamentação do setor.

ChatGPT, da OpenAI (Imagem: Vitor Pádua / Tecnoblog)

Entre os objetivos do grupo, estão:

avançar na pesquisa de segurança de IA para promover desenvolvimento responsável de modelos;

identificar as melhores práticas para desenvolvimento e implementação;

colaborar com formuladores de políticas públicas, pesquisadores, sociedade civil e empresas para compartilhar conhecimentos sobre riscos de segurança;

apoiar iniciativas para desenvolver aplicações para grandes desafios da sociedade, como mudanças climáticas, ameaças cibernéticas e prevenção do câncer.

As quatro empresas estão entre os principais nomes da inteligência artificial generativa.

A OpenAI é responsável pelo ChatGPT.

A Microsoft colocou tecnologias do tipo em produtos como Bing, Edge e Microsoft 365.

O Google apresentou seu chatbot, chamado Bard.

A Anthropic, formada por ex-membros da OpenAI, trabalha no seu modelo, chamado Claude.

O grupo poderá aceitar novos membros, mas os critérios são bastante restritos. A participação é limitada às empresas que constroem “modelos de aprendizagem de máquina em larga escala que excedam as capacidades atualmente presentes nos modelos mais avançados”.

Como nota o Financial Times, isso sugere que o grupo não está de olho nos problemas atuais da inteligência artificial, como violação de direitos autorais, riscos de privacidade e desemprego causado substituição de mão de obra humana.

Modelos mais avançados podem trazer novos problemas, e é nisso que o Frontier Model Forum está pensando.

IA está na mira de novas regulações

O tema da inteligência artificial atrai a atenção de autoridades. Nos EUA, o presidente Joe Biden prometeu uma ação executiva para promover “inovação responsável”. Já a Comissão Federal de Comércio (FTC) está investigando a OpenAI por possíveis práticas injustas ou enganosas envolvendo proteção de dados.

Recentemente, as quatro empresas do Frontier Model Forum, a Meta, a Inflection e a Amazon concordaram em seguir as diretrizes da Casa Branca para IA.

A União Europeia tem conversas avançadas para aprovar um conjunto de regras para a IA, visando promover direitos e valores como supervisão humana, transparência, não-discriminação e bem-estar social.

No Brasil, o tema está em discussão desde 2020 no Congresso Nacional, com o Marco da Inteligência Artificial. Em 2023, um novo texto foi proposto.

Em entrevista ao Financial Times, Emily Bender, pesquisadora da Universidade de Washington, avalia a iniciativa do Frontier Model Forum é uma forma de “evitar regulações” e tentar “reivindicar a possibilidade de autorregulação”.

Durante palestras e debates nos últimos meses, Sam Altman, CEO e um dos fundadores da OpenAI, tem defendido que não é o momento de regular a IA, porque isso prejudicaria a inovação.

Para ele, isso deve ser feito apenas quando surgir um modelo tão inteligente quanto a civilização humana. Mesmo neste caso, Altman considera que o mais adequado seria a criação de uma agência global, como a Agência Internacional de Energia Atômica, ligada à Organização das Nações Unidas (ONU).

Com informações: The Financial Times, The Washington Post, TechCrunch

Google, Microsoft e OpenAI prometem desenvolvimento responsável da IA

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *