Inteligência Artificial com foco no usuário e lançamento de LLM da Google
IA com foco no usuário e o novo LLM da Google representam um passo crucial rumo à usabilidade aprimorada e eficiência computacional em modelos de linguagem.
A próxima fronteira da IA pode ser apenas usabilidade
A Anthropic, empresa por trás dos modelos Claude, talvez o principal competidor do ChatGPT, lançou recentemente novas funcionalidades para permitir a colaboração de times usando os modelos. A principal funcionalidade envolve a possibilidade de criar um projeto compartilhado e fazer o upload de diversos documentos para compor uma base de conhecimentos. Estes documentos passam a ser consultados sob demanda pelo modelo durante as interações. Também é possível compartilhar conversas com o modelo com membros do time, criando uma biblioteca de conversações.
Essas funcionalidades visam aumentar a produtividade e a eficiência dos times, permitindo um acesso mais rápido e contextualizado às informações relevantes. A capacidade de criar uma base de conhecimentos compartilhada e de manter um histórico de conversas acessível a todos os membros do time pode facilitar a tomada de decisões informadas e a resolução de problemas de maneira mais colaborativa.
Ainda que essas funcionalidades sejam úteis, é interessante observar como as empresas estão tentando se manter competitivas na entressafra de grandes versões de modelos. Isso tem sido feito com pequenos upgrades nos principais modelos (GPT-4o, Claude-3.5) e, agora, em melhorias de usabilidade.
Além disso, a tendência de adicionar recursos colaborativos e de integração em ferramentas de IA reflete uma potencial mudança no foco das empresas. A aposta em usabilidade e funcionalidades pode ser vista como uma resposta às necessidades dos usuários, que buscam não apenas modelos mais poderosos, mas também soluções que se integrem de maneira fluida em seus fluxos de trabalho diários.
Em outras palavras, é possível que os modelos tenham se tornado bons o suficiente para que investimentos em integrações passem a fazer mais sentido do que investimentos em melhores modelos.
Gemma 2 é lançado pelo Google
Na sequência dos modelos Gemma, os modelos Gemma 2 foram lançados pela Google. Trata-se de uma família de LLMs relativamente pequenos: 9 bilhões e 27 bilhões de parâmetros. Apesar do tamanho, estes modelos demonstram capacidades semelhantes a modelos muito maiores, como o Llama-3 70B. Isto é possível devido à maneira com que estes modelos foram treinados.
Um grande modelo foi inicialmente treinado de forma tradicional, pela predição do próximo token em textos. Em seguida, este modelo maior foi utilizado como um "professor" para treinar os modelos menores. Esta técnica, conhecida como destilação de conhecimento, envolve usar as distribuições de probabilidade de saída do modelo maior para fornecer sinais de treinamento mais ricos aos modelos menores. Com isso, os modelos menores conseguem aprender de forma mais eficiente, capturando a riqueza das predições do modelo maior. Além disso, técnicas adicionais como interleaving local-global attentions e grouped-query attention foram implementadas para melhorar ainda mais o desempenho e a eficiência dos modelos Gemma 2.
Esforços como esse representam uma espécie de bifurcação no desenvolvimento de grandes modelos de linguagem. Por um lado, temos o desenvolvimento de modelos cada vez maiores e mais capazes. É o caso do Gemini da própria Google, bem como gpt-4o e Claude-3.5. Por outro lado, temos um foco em eficiência, com modelos incrementalmente menores mas com um bom patamar de capacidades. A busca por maior eficiência não só permite modelos ainda maiores eventualmente, mas também são necessários para computação em borda e, principalmente, em dispositivos móveis. É esperado que estes modelos, ou variações deles, apareçam em dispositivos Android para realizar tarefas sem a necessidade de ir à nuvem, aumentando a privacidade e reduzindo a latência.
PRODUZIDO AQUI NO HUB
A pesquisa intitulada "Exploring BERT for Aspect-based Sentiment Analysis in Portuguese Language", conduzida por Emerson Lopes, Larissa Freitas, Gabriel Gomes, Gerônimo Lemos, Luiz Hammes, e Ulisses Corrêa, se concentra na Análise de Sentimentos Baseada em Aspectos (ABSA), uma área do Processamento de Linguagem Natural (PLN) que identifica e classifica sentimentos em relação a aspectos específicos de uma entidade em textos. Com o aumento do Conteúdo Gerado pelo Usuário (UGC), tornou-se impraticável analisar manualmente todas as opiniões dos consumidores, tornando necessário o uso de técnicas automatizadas. ABSA permite uma análise mais detalhada e precisa, identificando diferentes opiniões sobre vários aspectos de uma entidade, o que é essencial para empresas e governos entenderem melhor os sentimentos dos consumidores e tomarem decisões informadas.
Para abordar a ABSA, a pesquisa utiliza o modelo BERT (Bidirectional Encoder Representations from Transformers), uma metodologia de pré-treinamento de modelos de linguagem que se mostrou eficaz em diversas tarefas de PLN. O estudo propõe o uso de BERT para classificar sentimentos em textos em português, utilizando sentenças auxiliares que ajudam a contextualizar a análise. Foram realizados experimentos com um corpus de resenhas de hotéis anotadas em nível de aspecto, verificando a eficácia do modelo em identificar e classificar corretamente os sentimentos expressos nos textos.
Os resultados da pesquisa mostraram que o uso de BERT, combinado com uma etapa de pós-treinamento em um corpus específico do mesmo domínio, pode melhorar significativamente a precisão da análise de sentimentos. A transformação da tarefa ABSA em uma tarefa de classificação de pares de sentenças, aliada ao pós-treinamento, aumentou a performance do modelo, mesmo com um número limitado de exemplos de treinamento. Isso demonstra o potencial de BERT em aplicações práticas de análise de sentimentos em português, oferecendo uma ferramenta poderosa para empresas e pesquisadores.