本地版 ChatGPT,不需要 openai 接口 ~
今天逛着GitHub突然间发现一个项目,本地ChatGPT实现出于好奇心,今天摸索了一下,是利用alpaca训练好的模型,进行AI聊天,GitHub链接,下面是配置这个本地ChatGPT的踩坑的地方
安装教程
1.GitHub拉取下载:
git clone https://github.com/antimatter15/alpaca.cpp
cd alpaca.cpp
2.下载CMake
3.下载模型
7B模型下载
https://gateway.estuary.tech/gw/ipfs/QmQ1bf2BTnYxq73MFJWu1B7bQ2UD6qG7D7YDCxhTndVkPC
https://ipfs.io/ipfs/QmQ1bf2BTnYxq73MFJWu1B7bQ2UD6qG7D7YDCxhTndVkPC
https://cloudflare-ipfs.com/ipfs/QmQ1bf2BTnYxq73MFJWu1B7bQ2UD6qG7D7YDCxhTndVkPC
13B模型下载,目前只有种子,无直链
magnet:
torrent: https://btcache.me/torrent/053B3D54D2E77FF020EBDDF51DAD681F2A651071
torrent: https://torrage.info/torrent.php?h=053b3d54d2e77ff020ebddf51dad681f2a651071magnet:?xt=urn:btih:053b3d54d2e77ff020ebddf51dad681f2a651071&dn=ggml-alpaca-13b-q4.bin&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce
4.安装
首先要安装MinGW
记得把MinGW放入path
cmake -G "MinGW Makefiles" .
cmake --build . --config Release
5.运行
把下载好的模型7b模型改名ggml-alpaca-7b-q4.bin
(13b改名成ggml-alpaca-13b-q4.bin
)然后拖进alpaca.cpp
文件夹里面,然后运行chat.exe
6.总结
目前只试了一下13B和7B的模型,13B模型的精确度差不多和GPT-3差不多了,30B和65B模型没测试过~
13B有支持中文吗
13B中文我试了一下好像不支持
7B似乎中文回答会乱码
会乱码,但是阿尔法好像可以自己去训练模型,国外大佬4090跑了5小时才跑出来的7B
羡慕大佬
羡慕大佬
好家伙~需要显卡吗?
这是训练好的模型,吃内存和cpu吃的厉害,我跑的时候显存基本上没用上
我的破电脑就不想了
7B的话4g内存就可以跑起来了,亲测😋
大佬牛逼啊
看到数据量 我就跑了...