$ hub install CPM_LM==1.0.0
模型参数转换至官方开源项目,由于模型较大,推荐在GPU环境下运行,并且请确保运行环境的内存大于20G且显卡显存大于12G,否则可能无法正常运行
更多详情参考清源CPM官网及其Github项目主页
def predict(text, max_len=32, end_word=None):
预测 API ,根据输入的文字进行文本生成,使用 Greedy Search 进行解码。
参数
返回
def tokenizer.encode(text):
编码 API
参数
返回
def tokenizer.decode(ids):
解码 API
参数
返回
def model(x, kv_cache=None, use_cache=False):
模型前向计算 API
参数
返回
代码示例
import paddlehub as hub
model = hub.Module(name='CPM_LM')
inputs = '''默写古诗:
日照香炉生紫烟,遥看瀑布挂前川。
飞流直下三千尺,'''
outputs = model.predict(inputs, max_len=10, end_word='\n')
print(inputs+outputs)
默写古诗:
日照香炉生紫烟,遥看瀑布挂前川。
飞流直下三千尺,疑是银河落九天。
inputs = '''问题:西游记是谁写的? 答案:''' outputs = model.predict(inputs, max_len=10, end_word='\n') print(inputs+outputs)
问题:西游记是谁写的?
答案:吴承恩。
inputs = '''小明决定去吃饭,小红继续写作业 问题:去吃饭的人是谁? 答案:''' outputs = model.predict(inputs, max_len=10, end_word='\n') print(inputs+outputs)
小明决定去吃饭,小红继续写作业
问题:去吃饭的人是谁?
答案:小明
inputs = '''默写英文: 狗:dog 猫:''' outputs = model.predict(inputs, max_len=10, end_word='\n') print(inputs+outputs)
默写英文:
狗:dog
猫:cat查看代码
paddlepaddle >= 2.0.0rc0
paddlehub >= 2.0.0b1