午夜精品人妻久久久-成年美女很黄的网站-在线看片免费人成视久网app-国产精品美女无遮挡一区二区-91精品国产综合久久久久-国产的免费视频又猛又爽又刺激-在线看片免费人成视久网app-久久香蕉国产精品视频-av一区二区三区高清

LLM代碼準確率平均降低15%

GPT-4、ChatGPT、CODEGEN、VICUNA、SANTACODER、INCODER、GPT-J、GPT-NEO、PolyCoder、StableLM-α 。
【LLM代碼準確率平均降低15%】從表格中來看,經(jīng)過嚴格測試后,這群AI的生成準確率都有所下落:

LLM代碼準確率平均降低15%

文章插圖
這里會通過一種名叫pass@k的方法評估準確率,其中k是允許大模型給問題生成的程序數(shù)量,n是用于測試的輸入數(shù)量,c是正確的輸入數(shù)量:
根據(jù)新的這套評估標準,大模型們的準確率平均下落了15%,其中比較廣泛研究的CODEGEN-16B更是下落了超過18% 。
至于ChatGPT和GPT-4生成代碼的性能,也下落了最少13% 。
不過 , 也有網(wǎng)友表示,大模型生成的代碼效果沒那么好,已經(jīng)是“盡人皆知的事實”了,需要研究的是“為何大模型寫的代碼不能用” 。
關(guān)于本次LLM代碼準確率平均降低15%的問題分享到這里就結(jié)束了 , 如果解決了您的問題 , 我們非常高興 。