EEE! Mais um textão sobre inteligência artificial


(Foto: Wikimedia Commons/Domínio público)
Ontem rodei uma pergunta nos stories com a intenção de jogar um pouco de luz sobre algumas coisas. A pergunta foi bem simples: se um cliente pede para você criar algo e você executa, a autoria é sua ou dele? Se ele te entrega um briefing, uma ideia, uma referência do que quer… e você materializa em algo, a peça final leva seu nome ou o nome do cliente?
Quem já me acompanha há mais tempo, sacou na hora para onde eu queria chegar: UM TEXTÃO SOBRE IA! hehe. Mas, mais do que isso, sobre como cada profissional enxerga o uso da IA dentro do seu processo criativo e estratégico, mas, principalmente, a sua participação e responsabilidade em tudo isso.
Agora, para deixar bem claro, esse texto não é para concluir nada, ok? Não tô tentando afunilar o assunto ou encontrar a resposta definitiva. A ideia aqui é problematizar e trazer algumas novas perspectivas.
Até agora, recebi 140 respostas. Posso dizer que elas se agrupam em três grandes blocos:
- Quem disse “depende do contrato” [e trouxe o olhar mais jurídico e pragmático da coisa];
- Quem afirmou “a autoria é minha” [com base na ideia de que ideia não se registra, o que vale é quem executa];
- E quem falou em autoria compartilhada [entendendo o processo como algo cocriado entre cliente e executor].
Depois disso, joguei no ar a segunda pergunta: como você enxerga o uso da inteligência artificial quando o assunto é autoria?
A maioria foi na linha de que a IA é só uma ferramenta, tipo Photoshop, Illustrator, Figma, uma planilha do Excel… algo que te ajuda a resolver um problema. Mas logo depois começaram a aparecer respostas com um tom mais paradoxal. Porque, por um lado, muita gente afirma que a IA é só um meio. Por outro, a forma como cada um usa essa ferramenta muda sua importância. Parece que tudo depende de como as regras são colocadas, do contexto, da ética individual, da moral que cada pessoa carrega no seu trabalho.
Na hora me veio o Mito de Giges na cabeça.
Para quem não conhece, é aquele conto do Platão, onde um homem encontra um anel que o torna invisível [alô Senhor dos Anéis]. Com o poder de fazer o que quiser sem ser visto, ele seduz a rainha, mata o rei e assume o trono. E a pergunta que Platão lança com essa história é: se você pudesse ficar invisível, como você agiria? Se ninguém estivesse olhando, qual seria o seu comportamento?
Talvez, para muita gente, a inteligência artificial tenha se tornado exatamente isso: o anel de Giges. Um espaço de invisibilidade onde autoria, ética e originalidade ficam ofuscadas, aliás, não só ofuscadas, muitas vezes, desconsideradas mesmo, porque é extremamente confortável dizer que a IA é apenas uma ferramenta, como qualquer outra. É o mesmo argumento que se usa para neutralizar a responsabilidade: “não fui eu, foi a ferramenta.” Mas o que a gente escolhe fazer com ela diz muito mais sobre quem somos do que sobre o que ela é, não é mesmo?
Ter uma peça criada com IA e se assumir como “profissional de prompt” tem se tornado uma prática cada vez mais comum. Mas isso te torna dono do trono? Dá para se chamar de autor nesse processo? Ou será que, nesse gesto, a gente não está apenas encenando o mesmo roteiro de Giges — tomando o poder, apagando rastros, eliminando os reis que vieram antes? Pode ser que, por trás de muitas dessas criações, exista uma série de corpos criativos sendo atravessados. São artistas que foram usados como referência sem consentimento, estilos incorporados de forma não autorizada, obras inteiras moídas em datasets para alimentar sistemas que, depois, distribuem “soluções” como quem vende um fast-food visual/textual.
A IA dá acesso, velocidade, possibilidades, mas também desloca o sujeito da cena. Dá poder, mas esvazia o processo, oferece soluções, mas desconecta da origem e quando a autoria vira esse terreno nebuloso, cada um passa a inventar suas próprias regras éticas. Tem quem ache que tudo bem, que o mundo é remix mesmo e foda-se. Tem quem se apoie no argumento jurídico: “ideia não se registra”. Tem quem defenda a coautoria, mesmo quando a IA está apenas reproduzindo algo que já foi criado por tantos outros.
Vejo que a pergunta inicial que fiz não era sobre técnica, mas sobre responsabilidade. E, se partimos do ponto do “depende do contrato” [que foi a resposta mais recorrente na minha primeira pergunta], então vale a pena perguntar: o que dizem os contratos das plataformas de inteligência artificial?
Bem, eu fui ler rapidinho aquilo que quase ninguém lê [haha] e peguei como exemplo a plataforma mais hypada atualmente: o ChatGPT, da OpenAI. Olha o que encontrei:

Nos termos de uso, eles afirmam que você é o responsável pelo conteúdo que envia e que precisa garantir que não esteja violando nenhuma legislação. Em outras palavras: se você subir algo que não te pertence ou usar material que infringe direitos autorais, o problema é seu — não da IA. Mais adiante, eles deixam claro que você mantém os direitos sobre aquilo que envia [as “contribuições”] e também é considerado o titular daquilo que recebe de volta [os “resultados”].
Mas, eles também dizem que os resultados gerados podem não ser únicos. Ou seja, outras pessoas podem receber conteúdos muito semelhantes ao que você recebeu. O sistema é treinado em bases amplas e não personalizadas, e isso implica que o seu “trabalho” com IA pode ser, na prática, uma variação do que muitos outros também acessam. E ainda que a OpenAI ceda a você os “direitos sobre os resultados”, eles alertam que isso não se aplica aos resultados de terceiros… o que cria uma zona cinzenta de autoria, similaridade e propriedade intelectual que ninguém está encarando.
Eles também afirmam que podem usar o seu conteúdo [aquilo que você escreveu, subiu ou criou] para melhorar os serviços da própria plataforma. Ou seja: além de ser responsável pelo que envia, você também alimenta o sistema e, em certa medida, perde o controle sobre o que aquilo vai gerar para outros usuários no futuro.
Então, se a gente quer mesmo discutir autoria e ética no uso da IA, não dá mais para se esconder atrás do argumento do “cada um usa como quiser” ou do “é só mais uma ferramenta”. Porque o que parece neutro [e até inofensivo] já vem carregado de decisões estruturais: políticas, jurídicas e comerciais. E o mais curioso é que tudo isso está publicamente disponível… mas escondido sob camadas de juridiquês, interfaces “amigáveis” e termos que a gente aceita sem ler.
Quer um exemplo? Dentro dos próprios termos de uso da OpenAI, está expressamente proibido tentar fazer engenharia reversa da ferramenta. Você também não pode usar os dados para construir um serviço concorrente, nem tentar descobrir como o modelo foi treinado ou de onde vieram os dados originais. Ou seja, existe uma estrutura legal sofisticada que protege os interesses da plataforma, mas que, curiosamente, não protege com a mesma intensidade quem está do lado de fora, especialmente os criadores cujos trabalhos foram usados para treinar sistemas.
O “criador de conteúdo médio”, o artista, o designer, o publicitário, o profissional liberal, não lê esses termos… quando lê, já é um pouco tarde, sabe? Porque a máquina já foi alimentada, já aprendeu, já replicou e agora retorna esses conteúdos digeridos em forma de “inspiração” para outras pessoas. Temos ali um contrato que favorece um lado só e, ao meu ver, é esse desequilíbrio que também precisa ser problematizado.
Se é contrato, se é coautoria, se é a mentalidade operacional, acho que uma coisa está bem clara, né? Existe, sim, um respaldo jurídico por trás dessas plataformas. E esse respaldo está longe de ser neutro. Ele é pensado e amarra muito bem o lado deles. Enquanto isso, quem usa, alimenta ou cria em cima disso tudo segue operando no escuro.
E eu sinto que logo mais isso tudo vai explodir. Não em insights, mas em processos. Em disputas legais, acusações, suspensões, bloqueios, marcas sendo questionadas, pessoas sendo processadas por uso indevido, ou por “roubo criativo” mascarado de autoria. É só uma questão de tempo.
Falo isso com o termômetro do que vejo aqui no The Ugly Lab mesmo. A gente tem uma licença de uso bem legal, avisos em todos os cantos, posicionamento transparente… e ainda assim, quantas pessoas seguem fazendo upload dos nossos materiais em plataformas, desrespeitando completamente os termos? E pior: “criando” versões a partir dos nossos conteúdos como se fossem autorais. Como se bastasse fazer um remix do nosso material para chamar de seu.
Aí, volto para o ponto inicial…veja, o Mito de Giges segue mais atual do que nunca. Com o poder da invisibilidade em mãos, muita gente está agindo sem ética, sem responsabilidade, sem olhar para quem veio antes ou para o que está sendo apagado e silenciado.
Quem gira esse anel acredita que pode tudo, sem ser visto, sem ser cobrado, sem consequências. Mas a pergunta segue valendo, talvez agora com mais uma camada de contexto: se ninguém estiver olhando, qual é o seu modo de agir?
Ah! O link dos termos da OpeanAI: https://openai.com/pt-BR/policies/row-terms-of-use/
