Páginas

terça-feira, 8 de junho de 2021

China deixa Elon Musk para trás e cria inteligência artificial 10 vezes mais potente

Inteligência Artificial, imagem referencial.

© AP Photo / Martin Meissner

Ciência e tecnologia

04:41 08.06.2021(atualizado 08:42 08.06.2021) URL curta

5594

Nos siga no

A inteligência artificial (IA) segue avançando: um modelo desenvolvido em conjunto por mais de 100 cientistas na China, denominado WuDao 2.0, é capaz de escrever poesia em inglês e chinês, prever estruturas 3D de proteínas e muito mais.

Isso graças à utilização de 1,75 trilhão de parâmetros, enquanto o modelo GPT-3 da empresa OpenAI, de Elon Musk, utiliza apenas 175 bilhões de parâmetros, um número muito inferior ao alcançado pela Academia de Inteligência Artificial de Pequim.

Além disso, supera os 1,6 bilhão de parâmetros da Switch Transformer da Google, projeto que estabeleceu um recorde, hoje ultrapassado pelo WuDao 2.0.

"O WuDao 2.0 tem como objetivo permitir que as máquinas pensem como humanos e alcancem capacidades cognitivas mais além do teste de Turing [...] O caminho até a IA passa por grandes modelos e supercomputadores", observou Tang Jie, subdiretor da Academia de Inteligência Artificial de Pequim.

O WuDao 2.0 possui capacidades únicas, destacando-se nos campos de reconhecimento e geração de imagens ou na predição de estruturas 3D de proteínas. Além disso, pode escrever ensaios, poemas e canções em inglês e chinês tradicional.

Sputnik Brasil

@sputnik_brasil

Russia state-affiliated media

China cria um protótipo de computador quântico capaz de processar 10 bilhões de vezes mais rápido que o computador quântico de 53 qubits desenvolvido pela Google

China anuncia protótipo de computador 10 bilhões de vezes mais rápido que o da Google

Uma equipe de cientistas chineses afirmou ter criado um protótipo de computador quântico capaz de processar dez bilhões de vezes mais rápido que o computador quântico...

br.sputniknews.com

10:07 AM · 4 de dez de 2020

21

Copiar link para o Tweet

Estas capacidades foram treinadas com 4,9 terabytes de imagens e textos, incluindo 1,2 terabyte de textos em inglês e chinês.

Estes modelos sofisticados, treinados com gigantescos conjuntos de dados, requerem apenas uma pequena quantidade de novos dados quando usados para uma função específica, porque podem transferir o conhecimento já aprendido para novas tarefas, assim como os humanos", disse Blake Yan, um pesquisador da academia.

"O que estamos construindo é uma usina de energia para o futuro da inteligência artificial, com mega-dados, mega-potência de computação e mega-modelos; podemos transformar dados para alimentar as aplicações de inteligência artificial do futuro", afirmou Zhang Hongjiang, presidente da Academia de Inteligência Artificial de Pequim.

Nenhum comentário:

Postar um comentário