请输入关键字
搜索
模型库
LLaMA-65B
Inference
LLaMA是大模型研究领域内最热门的基座模型,由Meta开源。时下热点的Vicuna,Koala等模型都是在llama的基础上训练的。现650亿参数量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究领域内最热门的基座模型,由Meta开源。时下热点的Vicuna,Koala等模型都是在llama的基础上训练的。现70亿参数量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。现70亿参数量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。现130亿参数量的Baichuan模型已支持在太初卡上推理使用。
LLM
相关模型数:
  • LLaMA-65B
    Inference
    LLaMA是大模型研究领域内最热门的基座模型,由Meta开源。时下热点的Vicuna,Koala等模型都是在llama的基础上训练的。现650亿参数量的LLaMA模型已支持在太初卡上推理使用。
  • LLaMA-7B
    Inference
    LLaMA是大模型研究领域内最热门的基座模型,由Meta开源。时下热点的Vicuna,Koala等模型都是在llama的基础上训练的。现70亿参数量的LLaMA模型已支持在太初卡上推理使用。
  • Baichuan-7B
    Inference
    Baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。现70亿参数量的Baichuan模型已支持在太初卡上推理使用。
  • Baichuan-13B
    Inference
    Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。现130亿参数量的Baichuan模型已支持在太初卡上推理使用。
  • BLOOM-7B
    Inference
    BLOOM 是一种自回归大型语言模型 (LLM),经过训练,可使用工业规模的计算资源根据大量文本数据的提示继续文本。因此,它能够以 46 种语言和 13 种编程语言输出连贯的文本。现70亿参数量的Bloom模型已支持在太初卡上推理使用。
  • GPT-2-13B
    Inference
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月创建的大语言模型。GPT-2能够翻译文本、回答问题、总结段落,并生成文本输出。现130亿参数量的GPT2模型已支持在太初卡上推理使用。
  • GPT-2-13B
    Pretrain
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月创建的大语言模型。GPT-2能够翻译文本、回答问题、总结段落,并生成文本输出。现130亿参数量的GPT2模型已支持在太初卡上训练使用。
  • GPT-2-13B
    Finetune
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月创建的大语言模型。GPT-2能够翻译文本、回答问题、总结段落,并生成文本输出。现130亿参数量的GPT2模型已支持在太初卡上微调使用。
  • GPT-NeoX-20B
    Inference
    GPT-NeoX是EleutherAI训练的自回归大语言模型,该模型在学术、工业和政府实验室有广泛应用。现200亿参数量的GPT2-NeoX模型已支持在太初卡上推理使用。
多模态
相关模型数:
CV
相关模型数:
  • Resnet50-v1.5
    Pretrain | PyTorch
    ResNet50 v1.5 (Residual Network),是一种特定类型的卷积神经网络 (CNN),常用于计算机视觉领域。现 ResNet50 v1.5 已支持在太初卡训练(基于PyTorch框架)使用。
  • Resnet50-v1.5
    Inference
    ResNet50 v1.5 (Residual Network),是一种特定类型的卷积神经网络 (CNN),常用于计算机视觉领域。现 ResNet50 v1.5 已支持在太初卡推理使用。
  • Resnet50-v1.5
    Pretrain | PaddlePaddle
    ResNet50 v1.5 (Residual Network),是一种特定类型的卷积神经网络 (CNN),常用于计算机视觉领域。现 ResNet50 v1.5 已支持在太初卡训练(基于PaddlePaddle框架)使用。
  • Yolov5-m
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基础上,并引入了新功能和改进,能够快速、准确且易于使用,Yolo V5已成为各种对象检测、实例分割和图像分类任务的绝佳选择。现Yolov5m(21.2M 参数)已支持在太初卡推理使用。
  • Yolov5-l6
    Pretrain | PyTorch
    Yolo V5建立在先前 YOLO 版本成功的基础上,并引入了新功能和改进,能够快速、准确且易于使用,Yolo V5已成为各种对象检测、实例分割和图像分类任务的绝佳选择。现Yolov5l6(76.8M 参数)已支持在太初卡训练(基于PyTorch框架)使用。
  • Yolov5-l6
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基础上,并引入了新功能和改进,能够快速、准确且易于使用,Yolo V5已成为各种对象检测、实例分割和图像分类任务的绝佳选择。现Yolov5l6(76.8M 参数)已支持在太初卡推理使用。
语音
相关模型数:
  • Wav2Vec 2.0-base
    Pretrain | PyTorch
    Wav2vec使用自监督的训练方式从未标记的训练数据中训练获得语音识别的能力,能够支持多种语言识别。现Wav2Vec-2.0-base已支持在太初卡训练(基于PyTorch框架)使用。
  • Wav2Vec 2.0-base
    Inference
    Wav2vec使用自监督的训练方式从未标记的训练数据中训练获得语音识别的能力,能够支持多种语言识别。现Wav2Vec-2.0-base已支持在太初卡推理使用。
NLP
相关模型数:
  • BERT-Base
    Pretrain | PyTorch
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型。现BERT-Base已支持在太初卡训练(基于PyTorch框架)使用。
  • BERT-Base
    Inference
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型。现BERT-Base已支持在太初卡推理使用。
抱歉,没有找到“xxx”相关的结果,请尝试其他搜索词

申请试用

完成下方表格填写后,太初技术专家会在审核初步通过后与您联系。如果最终完成审核,您可以访问太初线上环境体验太初加速卡的性能。

请填写下表 我们将尽快与您联系

完成下方表格填写后,太初技术专家会在审核初步通过后与您联系。如果最终完成审核,您可以访问太初线上环境体验太初加速卡的性能。