72 Score
hacker news
technology
1 day ago
Flash-MoE: Rodando um Modelo de 397 Bilhões de Parâmetros em um Mac com 48GB de RAM
Uma nova técnica chamada Flash-MoE permite executar modelos de linguagem massivos com 397 bilhões de parâmetros diretamente em um Mac com apenas 48GB de RAM, democratizando o acesso a IAs de grande escala sem necessidade de infraestrutura em nuvem. Essa abordagem representa um avanço significativo p...
#inteligência artificial
#modelos de linguagem
#MoE
#inferência local
#Apple Silicon
Ver fonte original
Análise Estratégica Completa
Análise completa disponível para assinantes
Dossiê estratégico, domínios disponíveis e score de oportunidade completo.
Ver planos →30 dias grátis, cancele quando quiser
Receba alertas como esse antes de todo mundo
O RadarTrend varre patentes, papers e deep tech 24/7 e envia alertas no Telegram no segundo que a oportunidade surge.
Criar conta grátis — 30 dias sem custo →