A Anthropic, a empresa de inteligência artificial (IA) por detrás do popular chatbot Claude, concordou em pagar um valor recorde de 1.5 mil milhões de dólares para encerrar um processo judicial por violação de direitos de autor. Este acordo representa o maior pagamento de sempre num caso desta natureza nos Estados Unidos.
Um acordo histórico de 1.5 mil milhões de dólares
A empresa de IA chegou a um entendimento na ação coletiva movida por autores na semana passada, embora os pormenores do acordo não tivessem sido divulgados inicialmente. Agora, o The New York Times avança que os 500.000 autores envolvidos no processo receberão 3000 dólares por cada obra utilizada indevidamente.
Justin A. Nelson, o advogado que representa os autores, afirmou em comunicado que este acordo “é o primeiro do seu género na era da IA”.
Este acordo histórico ultrapassa largamente qualquer outra compensação conhecida por direitos de autor. Irá fornecer uma compensação significativa por cada obra e estabelece um precedente que exige que as empresas de IA paguem aos detentores de direitos de autor.
Este acordo envia uma mensagem poderosa tanto às empresas de IA como aos criadores, de que a utilização de obras protegidas por direitos de autor provenientes de sites de pirataria é errada.
Acrescentou.
Este caso tem sido acompanhado de perto, numa altura em que as principais empresas de IA enfrentam um crescente escrutínio legal sobre o uso de materiais protegidos por direitos de autor. Em junho, numa vitória significativa para a Anthropic, o juiz do caso determinou que a utilização de material protegido para treinar o seu LLM constituía “fair use” (utilização legítima).
No entanto, o mesmo juiz deliberou que os autores e editores poderiam prosseguir com as acusações de pirataria contra a empresa, uma vez que os livros foram descarregados ilegalmente de plataformas como a Library Genesis (também conhecida como “LibGen”). A questão central não era, portanto, o treino em si, mas a origem ilícita dos dados utilizados.
A posição da Anthropic e os próximos passos
Como parte do acordo, a Anthropic comprometeu-se a eliminar todos os dados que foram descarregados ilegalmente. Segundo o TNYT, a empresa “afirmou não ter utilizado quaisquer obras pirateadas para construir as tecnologias de IA que foram lançadas publicamente”. A empresa não admitiu qualquer irregularidade no processo.
Em junho, o Tribunal Distrital emitiu uma decisão histórica sobre o desenvolvimento de IA e a lei de direitos de autor, concluindo que a abordagem da Anthropic ao treino de modelos de IA constitui fair use.
O acordo de hoje, se for aprovado, irá resolver as restantes reivindicações dos queixosos. Continuamos empenhados em desenvolver sistemas de IA seguros que ajudem pessoas e organizações a expandir as suas capacidades, a promover a descoberta científica e a resolver problemas complexos.
Declarou Aparna Sridhar, Vice-Conselheira Geral da Anthropic.
Leia também: