Modelos de Inteligência Artificial (IA) generativa que demonstram respeito pelos direitos autorais dos dados utilizados no treinamento agora estão sendo reconhecidos nos Estados Unidos, por meio de uma iniciativa inovadora. A organização sem fins lucrativos Fairly Trained anunciou na quarta-feira (17) que está emitindo um selo de certificação para diferenciar as empresas de IA generativa que solicitam autorização para o uso de dados protegidos daquelas que não o fazem.
A primeira certificação emitida pela Fairly Trained é chamada de "Modelo Licenciado", sendo concedida às empresas que não utilizam dados protegidos sem a devida autorização dos proprietários. As licenças podem variar de personalizadas a abertas permissivas, mas não serão concedidas a desenvolvedores que alegam "uso justo" para seus treinamentos.
Atualmente, as leis americanas não exigem que os desenvolvedores informem a fonte dos conteúdos utilizados em sistemas de IA generativa. No entanto, propostas em tramitação sugerem mudanças nesse cenário. A iniciativa da Fairly Trained busca abordar essa lacuna e destacar práticas éticas na indústria.
No momento, nove empresas de IA generativa já receberam o selo Fairly Trained, incluindo startups como Beatoven.AI, BRIA AI, LifeScore e Tuney, que oferecem ferramentas de geração de imagem por descrição textual, música e voz.
A crescente preocupação com a violação de direitos autorais em sistemas de IA generativa tem levado a um aumento nos processos judiciais. Um caso notável envolve a OpenAI, a startup por trás do popular ChatGPT, sendo processada pelo The New York Times por alegada utilização não autorizada de seus materiais no treinamento de chatbots.
Ed Newton-Rex, fundador da Fairly Trained e ex-vice-presidente da Stability AI, expressou a necessidade de abordar essas questões éticas, afirmando que a tecnologia não deve explorar os criadores, mas sim respeitar seus direitos autorais. A certificação da Fairly Trained é uma resposta a essas preocupações crescentes na indústria de IA generativa.