Business

Algumas empresas de IA enfrentam uma nova acusação: ‘lavagem aberta’

FALAR NA LOJA

Uma acusação contra algumas empresas de IA de que estão usando o rótulo de “código aberto” de maneira muito vaga.


Shop Talk explora as expressões idiomáticas do mundo dos negócios: o jargão interno, os termos recém-criados, as frases infelizes ou usadas em demasia.

Há um grande debate no mundo da tecnologia sobre se os modelos de inteligência artificial deveriam ser de “código aberto”. Elon Musk, que ajudou a fundar a OpenAI em 2015, processou a startup e seu presidente-executivo, Sam Altman, sob alegações de que a empresa havia divergido de sua missão de abertura. A administração Biden é investigando os riscos e benefícios dos modelos de código aberto.

Os defensores dos modelos de IA de código aberto dizem que são mais equitativos e mais seguros para a sociedade, enquanto os detratores dizem que são mais propensos a serem abusados ​​por intenções maliciosas. Um grande soluço no debate? Não há uma definição consensual sobre o que realmente significa IA de código aberto. E alguns estão acusando as empresas de IA de “openwashing” – usando o termo “código aberto” de forma dissimulada para parecerem boas. (As acusações de openwashing visavam anteriormente a codificação de projetos que usavam o rótulo de código aberto de maneira muito vaga.)

Em uma postagem no blog Open Future, um think tank europeu que apoia o open source, Alek Tarkowski escreveu“À medida que as regras são escritas, um desafio é construir barreiras de proteção suficientes contra as tentativas de 'openwashing' das corporações.” No mês passado, a Linux Foundation, uma organização sem fins lucrativos que apoia projetos de software de código aberto, advertido que “esta tendência de ‘openwashing’ ameaça minar a própria premissa de abertura – a livre partilha de conhecimento para permitir a inspeção, a replicação e o avanço coletivo”.

As organizações que aplicam o rótulo aos seus modelos podem estar a adoptar abordagens muito diferentes em relação à abertura. Por exemplo, a OpenAI, startup que lançou o chatbot ChatGPT em 2022, pouco divulga sobre seus modelos (apesar do nome da empresa). A Meta rotula seus modelos LLaMA 2 e LLaMA 3 como código aberto, mas impõe restrições ao seu uso. Os modelos mais abertos, geridos principalmente por organizações sem fins lucrativos, divulgam o código-fonte e os dados de formação subjacentes, e utilizam uma licença de código aberto que permite uma ampla reutilização. Mas mesmo com estes modelos, existem obstáculos para que outros possam replicá-los.

A principal razão é que, embora o software de código aberto permita a qualquer pessoa replicá-lo ou modificá-lo, construir um modelo de IA requer muito mais do que código. Apenas um punhado de empresas pode financiar o poder computacional e a curadoria de dados necessários. É por isso que alguns especialistas dizem que rotular qualquer IA como “código aberto” é, na melhor das hipóteses, enganoso e, na pior, uma ferramenta de marketing.

“Mesmo os sistemas de IA maximamente abertos não permitem o acesso aberto aos recursos necessários para ‘democratizar’ o acesso à IA, nem permitem um escrutínio completo”, disse David Gray Widder, pós-doutorado na Cornell Tech que estudou uso do rótulo de “código aberto” por empresas de IA.

Estão em curso esforços para criar uma definição mais clara para IA de código aberto. Pesquisadores da Linux Foundation em março publicou uma estrutura que coloca modelos de IA de código aberto em várias categorias. E a Open Source Initiative, outra organização sem fins lucrativos, está tentando elaborar uma definição.

Mas Widder e outros duvidam que a IA verdadeiramente de código aberto seja possível. Os requisitos proibitivos de recursos para a construção de modelos de IA, disse ele, “simplesmente não vão desaparecer”.

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button