Apple Introduz "Apple Intelligence", Luma AI Lança IA Generativa de Vídeos, e Estudo Brasileiro Avança na Análise de Sentimentos
Apple tenta redefinir a IA com nova plataforma, enquanto empresa democratiza a criação de vídeos. No produzido pelo HUB temos um artigo que aborda a análise de sentimentos utilizando redes neurais.
APPLE ANUNCIA “APPLE INTELLIGENCE”
A Apple sempre evitou o uso do termo Inteligência Artificial, preferindo ser um pouco mais específica ao usar Aprendizado de Máquina ou Visão Computacional. Na segunda-feira, 10 de junho, na WWDC ela tenta ressignificar a sigla AI lançando sua Apple Intelligence.
Não só a Siri finalmente passará por uma atualização significativa, utilizando grandes modelos de linguagem, mas a IA generativa aparecerá em diversas aplicações e nos sistemas operacionais da empresa. Muito é o que se espera e já se vê em outros lugares - ajuda para escrever e-mail, resumir mensagens, emails e sites, busca. Como muitas aplicações da Apple, o diferencial deverá estar na execução mais do que na ideia.
A empresa promete que muito rodará localmente, sem precisar utilizar serviços na nuvem, mas que também haverá acesso ao GPT-4o quando algo mais complexo for necessário, confirmando rumores de negociação entre as empresas. Outros modelos serão suportados no futuro.
A Apple foi talvez a última das grandes empresas de tecnologia a se movimentar com relação à IA generativa. O contrato com a OpenAI (que já possui contratos extensos com a Microsoft) é significativo, demonstrando que há pouco interesse, ou capacidade, em criar seus próprios grandes modelos de forma competitiva. O modelo híbrido de ter um modelo pequeno rodando local para tarefas simples e deferir a modelos maiores na nuvem tarefa complexas deve ser o padrão por algum tempo.
LUMA AI DISPONIBILIZA SUA IA GENERATIVA PARA VÍDEOS
Em um espaço que está esquentando rapidamente, a empresa Luma AI, mais conhecida por seus modelos de geração e reconstrução 3D, disponibilizou para o público um modelo de geração de vídeos a partir de textos.
O fato é notável por ser o primeiro modelo de alta qualidade a ser disponibilizado ao público geral. O conceito é semelhante ao Sora, apresentado pela OpenAI há alguns meses, mas que não foi disponibilizado ainda. Google também prometeu o modelo Veo, com o mesmo propósito, em evento recente.
Esta é uma extensão natural para os modelos generativos para imagens e, com a popularidade de TikTok e YouTube, sem falar em Hollywood, é um mercado muito maior. Porém, também se estendem todos problemas éticos e legais da geração de imagens -- no que exatamente estes modelos foram treinados, e com que permissão?
Esperem um dilúvio de vídeos gerados por IA nas suas timelines nos próximos meses.
PRODUZIDO AQUI NO HUB
Em 2022, Gabriel Gomes, Ulisses Corrêa e Larissa Freitas apresentaram um estudo intitulado "GABSA-PT: Graph Neural Networks for Aspect-level Sentiment Analysis in Portuguese Language". Este trabalho se concentrou na Análise de Sentimentos Baseada em Aspectos (ABSA) utilizando Redes Neurais Gráficas (GNNs) para a língua portuguesa do Brasil. Adaptando a arquitetura DualGCN, os autores conseguiram treinar um modelo que alcançou uma precisão equilibrada de 75% ao classificar sentimentos expressos em avaliações de hotéis retiradas do TripAdvisor. A transformação dos textos em representações gráficas permitiu capturar as relações linguísticas entre palavras, o que beneficiou a aprendizagem da rede neural. A pesquisa demonstrou a eficácia da abordagem de GNNs, que até então havia sido amplamente aplicada apenas a textos em inglês, ao trazer resultados promissores para o português brasileiro.
O estudo destacou a importância de utilizar representações gráficas para capturar as nuances linguísticas dos textos, mostrando que essa técnica pode superar métodos tradicionais de redes neurais convolucionais em algumas tarefas. A adaptação da DualGCN incluiu mudanças nas embeddings, utilizando dados em português brasileiro em vez de inglês. O corpus usado para treinamento e teste foi composto por 1031 avaliações de hotéis, anotadas com 77 diferentes aspectos. Os resultados obtidos foram comparados com os dos melhores modelos participantes da competição ABSAPT, mostrando que o modelo proposto pelos autores superou alguns desses modelos, embora ainda haja espaço para melhorias. A pesquisa sugere que a utilização de parsers de dependência treinados especificamente para o português brasileiro pode aumentar ainda mais a precisão dos modelos, apontando para possíveis desenvolvimentos futuros na área.