Observar o desenvolvimento da IA generativa é curioso. Nos Estados Unidos, são as grandes empresas de tecnologia e startups como a OpenAI que ditam o ritmo. Na China, empresas também estão desenvolvendo seus modelos, mas o governo tem um interesse particular em impulsionar essa tecnologia para fins sociais e médicos. Agora, a América Latina uniu forças para criar seu próprio ChatGPT.
Ele se chamará Latam-GPT e vem de uma motivação curiosa: um centro chileno não se convenceu com uma resposta do ChatGPT sobre a cultura latino-americana.
A pergunta
"Descreva a cultura latino-americana em 500 caracteres." Esse foi, como lemos na BBC, o pedido de pesquisadores do Centro Nacional de Inteligência Artificial (CENIA) do Chile ao ChatGPT. Sua resposta foi a seguinte:
"A cultura latino-americana é uma amálgama vibrante de raízes indígenas, influências africanas e herança europeia. É caracterizada por sua rica diversidade em música, dança e gastronomia, refletida em festivais como o Carnaval e a Feira das Flores. Sua arte, do muralismo à literatura, demonstra uma profunda conexão com a história e a identidade locais. O calor humano, o senso de comunidade e a celebração da vida são pilares que enriquecem essa cultura dinâmica e diversa."
Se você fizer a mesma pergunta, provavelmente vai ter uma resposta diferente, mas em torno dos mesmos pontos, como a fusão das heranças indígena, africana e europeia, o gosto pela música e pela dança, a gastronomia colorida e tradições como o carnaval, que dão origem a um mosaico cultural colorido.
Latam-GPT
Esta resposta não satisfez os pesquisadores do CENIA, que consideraram que, embora seja um LLM de alta qualidade, "sua compreensão do contexto latino-americano poderia ser enriquecida e aperfeiçoada". Em suma, eles estão convencidos de que a resposta, embora correta em linhas gerais, precisa ser muito matizada para refletir melhor as particularidades da cultura de cada país latino-americano, pois o ChatGPT deu uma resposta que era muito generalista.
A intenção é que seja um modelo de linguagem da e para a América Latina e o Caribe. A esperança é que aborde os problemas comuns que os modelos de linguagem enfrentam ao interpretar expressões idiomáticas, referências culturais e expressões típicas do contexto latino-americano. Álvaro Soto, diretor do CENIA, explica que os modelos americanos são alucinantes porque os dados latino-americanos com os quais foram treinados são muito escassos.
Objetivos
São três. Por um lado, o que acabamos de mencionar: um contexto maior quando se trata de abordar questões relacionadas à cultura de cada um dos países latino-americanos. Por outro, deve ser aberto e público, permitindo que cada desenvolvedor adapte as aplicações às necessidades locais em áreas como educação, política, economia ou meio ambiente.
Finalmente, talvez o mais importante diante de algo que os países da região buscam: deixar de depender de modelos e tecnologias estrangeiras. O México, por exemplo, colocou em pauta a intenção de realizar diferentes projetos dentro de um amplo escopo chamado Plano México, que busca fortalecer a soberania da nação em diversas áreas, tendo a tecnologia – com sua própria indústria de semicondutores ou veículos elétricos – como um de seus pilares.
Financiamento
Com o Latam-GPT, busca-se também promover a inovação tecnológica na região, graças a uma ferramenta que pode ajudar outros a desenvolverem seu potencial. Mas, é claro, realizar algo assim exige dinheiro, e isso não ficará apenas no CENIA. O Chile foi indicado como líder do projeto, mas países como México, Argentina, Colômbia, Peru, Uruguai, Costa Rica e Equador não hesitaram em aderir. Há também instituições espanholas e americanas neste projeto.
Conta com apoio financeiro de associações e instituições acadêmicas desses países, mas também há apoio governamental para desenvolver essa inteligência artificial.

Recursos
Para a capacitação, os pesquisadores utilizarão a infraestrutura da Universidade de Tarapacá, no Chile. Ele usará um supercomputador para treinar o modelo com mais de 8 TB de dados coletados de bibliotecas públicas e privadas. Esse treinamento levará cerca de 40 dias e a previsão é que, ainda em 2025, o Latam-GPT esteja acessível. O investimento na infraestrutura será de cerca de 10 milhões de dólares (R$ 56,6 milhões).
No entanto, um dos problemas pode ser o consumo do centro de treinamento. Nem todos veem com bons olhos a instalação de data centers para treinar IA devido ao alto consumo de água e energia, mas a CENIA afirma que o consumo na primeira das duas etapas será de 135 kWh.
A Universidade de Tarapacá está localizada em Arica, no norte do Chile, onde existe uma grande matriz energética composta por energias renováveis e a ideia é "puxá-las" para fornecer eletricidade. Além disso, a agência comenta que "o sistema de resfriamento dos servidores não gerará consumo de água devido à disponibilidade de energia barata e abundante em Arica. As emissões de CO₂ associadas ao treinamento serão de 0,96 toneladas".
Necessário?
Isso significaria, se a matemática estiver correta, que o treinamento deste LLM será mais sustentável do que o dos modelos do Google ou OpenAI, mas há alguns desafios pela frente. Um deles tem a ver com a proteção dos dados que eles usam para treinar o modelo. Os pesquisadores afirmam que a principal política de proteção da propriedade intelectual será a transparência, com fontes abertas que cumpram as leis de direitos autorais e, ao mesmo tempo, realizem a anonimização automática dos dados pessoais.
Por outro lado, há quem se pergunte: tudo isso... para quê? Ulises Mejías, de origem mexicana, é professor da Universidade Estadual de Nova York e comentou à BBC Mundo que, embora seja a proposta "maior, mais ambiciosa e mais bem financiada" que ele já viu na América Latina, não confia em projetos que tentem se diferenciar dos dos EUA e da China sem questionar a premissa básica desses modelos.
"O projeto Latam-GPT tenta fornecer uma nova resposta à pergunta sobre para que serve a GenAI? Ou deixa inquestionável a suposição de que a inteligência artificial geral serve basicamente para reduzir custos de mão de obra e maximizar os lucros das empresas?", pergunta Mejías.
De qualquer forma, e apesar das perguntas e dúvidas de pessoas como Mejías, é questão de meses até vermos, se tudo correr conforme o planejado, este Latam-GPT. E o que está claro é que, por mais que se queira mudar as coisas ou parar de depender de tecnologias estrangeiras, ainda há apenas um nome no Ocidente (na China, já sabemos que a Huawei está na equação) protagonista quando se trata de inteligência artificial: NVIDIA.
A razão para isso é que o data center será equipado com 12 nós com oito GPUs NVIDIA H200 cada. Eles calcularam que isso será necessário para treinar o modelo com 50 trilhões de parâmetros, comparável ao GPT-3.5, e já adiantaram que será uma primeira versão que será fortalecida com "melhorias contínuas à medida que mais instituições se juntarem e novos dados forem integrados para aperfeiçoar o modelo".
Teremos que ficar de olho no Latam-GPT, mas não apenas nessa primeira versão, mas também em sua evolução. A forma como ele se adaptar é o que determinará o sucesso ou o fracasso do modelo.
Ver 0 Comentários