Python調用GPT3.5接口的最新方法實例詳解
GPT3.5接口調用方法主要包括openai安裝、api_requestor.py替換、接口調用、示例程序說明四個部分。
1 openai安裝
Python openai庫可直接通過pip install openai安裝。如果已經安裝openai,但是后續(xù)提示找不到ChatCompletion,那么請使用命令“pip install -U openai”來升級openai。
2 api_requestor.py替換
Python openai安裝完成之后,會產生api_requestor.py文件,文件位于python環(huán)境庫文件目錄下“site-packages\openai\api_requestor.py”,如下所示。將該文件進行替換,在公眾號樂樂感知學堂中回復api35即可獲得用來替換的文件。
Windows:
C:\ProgramData\Anaconda3\Lib\site-packages\openai\api_requestor.py
或
C:\ProgramData\Anaconda3\envs\xxx\lib\site-packages\openai\api_requestor.py
Linux:
/root/miniconda3/lib/pythonxx/site-packages/openaiapi_requestor.py
或
/root/miniconda3/envs/xxx/lib/pythonxx/site-packages/openaiapi_requestor.py
將該文件進行替換,在公眾號樂樂感知學堂中回復api35即可獲得用來替換的文件。
3 接口調用說明
接口調用方式不變,與openai自身調用方式一致。輸入主要有7個參數。
(1)model:模型名稱,gpt-3.5-turbo或gpt-3.5-turbo-0301
(2)messages:問題或待補全內容,下面重點介紹。
(3)temperature:控制結果隨機性,0.0表示結果固定,隨機性大可以設置為0.9。
(4)max_tokens:最大返回字數(包括問題和答案),通常漢字占兩個token。假設設置成100,如果prompt問題中有40個漢字,那么返回結果中最多包括10個漢字。ChatGPT API允許的最大token數量為4096,即max_tokens最大設置為4096減去問題的token數量。
(5)top_p:設置為1即可。
(6)frequency_penalty:設置為0即可。
(7)presence_penalty:設置為0即可。
(8)stream:控制連續(xù)輸出或完整輸出。
需要注意,上述輸入參數增加stream,即是否采用控制流的方式輸出。
如果stream取值為False,那么完全返回全部文字結果,可通過response.choices[0].delta['content']進行讀取。但是,字數越多,等待返回時間越長,時間可參考控制流讀出時的4字/每秒。如果steam取值為True時,那么返回結果是一個Python generator,需要通過迭代獲取結果,平均大約每秒鐘4個字(33秒134字,39秒157字)。讀取程序如下所示.
4 message
messages字段組成部分包括角色role和content問題兩個部分組成,如下所示:
model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Who won the world series in 2020?"}, {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."}, {"role": "user", "content": "Where was it played?"} ]
在gpt-3.5-turbo模型中,角色role包含system系統(tǒng)、assistant助手和用戶user三種類型。System角色相當于告訴ChatGPT具體以何種角色回答問題,需要在content中指明具體的角色和問題內容。而gpt-3.5-turbo-0301主要區(qū)別在于更加關注問題內容,而不會特別關注具體的角色部分。gpt-3.5-turbo-0301模型有效期到6月1日,而gpt-3.5-turbo會持續(xù)更新。
assistant助手和用戶user則相當于已經指明了角色,content直接寫入關注的問題即可。
5 示例程序
(1)stream = False
import openai def openai_reply(content, apikey): openai.api_key = apikey response = openai.ChatCompletion.create( model="gpt-3.5-turbo-0301",#gpt-3.5-turbo-0301 messages=[ {"role": "user", "content": content} ], temperature=0.5, max_tokens=1000, top_p=1, frequency_penalty=0, presence_penalty=0, ) # print(response) return response.choices[0].message.content if __name__ == '__main__': content = '你是誰?' ans = openai_reply(content, '你的APIKEY') print(ans)
(2)stream = True
import time import openai openai.api_key = "你的APIKEY" response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[ {"role": "user", "content": 'how are you'} ], temperature=0, max_tokens=1000, stream=True, top_p=1, frequency_penalty=0, presence_penalty=0, user='RdFast智能創(chuàng)作機器人小程序' ) print(response) print('response["choices"][0]["text"]結果如下所示:') ans = '' for r in response: if 'content' in r.choices[0].delta: ans += r.choices[0].delta['content'] print(ans) print(ans)
3 API調用效果
到此這篇關于Python調用GPT3.5接口的最新方法的文章就介紹到這了,更多相關Python調用GPT3.5接口內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
pyspark操作hive分區(qū)表及.gz.parquet和part-00000文件壓縮問題
這篇文章主要介紹了pyspark操作hive分區(qū)表及.gz.parquet和part-00000文件壓縮問題,針對問題整理了spark操作hive表的幾種方式,需要的朋友可以參考下2021-08-08Python 合并多個TXT文件并統(tǒng)計詞頻的實現
這篇文章主要介紹了Python 合并多個TXT文件并統(tǒng)計詞頻的實現,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-08-08