信创算力社区 ModelHub 今日正式发布专门适配信创算力的 AI 引擎体系 EngineX。该体系采取“架构级适配”模式,通过适配主流深度学习架构(如 Transformers、Diffusion、CNN 等),实现对同一架构下多个模型的批量化支持,从根本上解决了国产信创芯片在 AI 模型兼容性和支持数量上的长期瓶颈问题。
架构级适配:一次适配,批量支持
在国产算力生态中,不同模型往往需要分别适配,耗时长且重复工作量大。ModelHub 社区提出,因为目前 90% 主流的 AI 模型都是基于三类基础算法架构(即 transformer、diffusion、CNN),因此可以通过基础算法架构适配,驱动批量化模型支持。基于此,ModelHub 推出了面向信创算力的推理引擎体系 EngineX,并且将适配层提升至 架构级: