O Faifei News Agency, Shangtang Technology e Shanghai IA Lab em conjunto com a Universidade chinesa de Hong Kong, a Universidade Fudan e a Universidade Shanghai Jiaotong recentemente lançaram o modelo de 100 bilhões de parâmetros de grande escala de linguagem "Scholar PuYu" (InternLM). A língua Scholar Pu tem 104 bilhões de parâmetros e é treinada em um conjunto de dados multilingues de alta qualidade contendo 16 trilhões de fichas. Os resultados completos da avaliação mostram que Scholar PuYu não só tem um bom desempenho em muitas tarefas de teste, como o domínio do conhecimento, a compreensão da leitura, o raciocínio matemático, a tradução multilingue, mas também tem uma forte capacidade abrangente, pelo que funciona bem no exame exaustivo, e superou o ChatGPT em vários exames chineses, incluindo o conjunto de dados (gaokao) de várias matérias no exame de admissão da faculdade chinesa.