• <source id="kqqcq"></source>
  • <legend id="kqqcq"></legend>
    首頁
    讀書
    網課

    qwen1.8B 通義千問大模型本地CPU運行整合包 應該是全網唯一

    好鄰居 2024-12-26 18:22:11

    阿里在12月1日進一步開源了 Qwen 的系列LMM大模型。其中體積最小的為 Qwen1.8億 參數的模型。算是中文領域3B以下最強的大模型之一了。 關鍵是,之前我6G顯存的電腦跑很多大模型本地都跑不起來,甚至很多6億,7億參數的模型都報錯顯存溢出,這個1.8B的應該是對沒有顯存或者顯存小于8G的用戶最友好的中文本地大模型了,所以我通過 llama.cpp 量化部署然后把模型打包成了一個可以本地CPU運行離線使用的整合包。


    量化后q5_k_m.gguf 模型大小為1.31GB,加載后基礎內存占用也在1.3GB,在i5-12600K CPU上4線程可以達到14-15token/s,對終端設備非常友好。 我自己測試了一下它的對話能力,基本ok, 比起以往的小參數大模型效果好蠻多。


    打開軟件后會自動打開一個黑色的窗口,在最下方有一個箭頭的地方可以輸入和大模型的對話內容,然后輸入回車 確認 就可以開始對話了,玩起來吧~




    鏈接:pan.baidu.com/s/1WQQ8ka

    提取碼:1111


    編輯于 2024-01-16 10:57


    聲明:本網站所提供的信息僅供參考之用,并不代表本網站贊同其觀點,也不代表本網站對其真實性負責。 




    分享到:
    最新評論(0)
    更多
    匿名者
    頂樓
    肉人妻丰满av无码久久不卡_国产成人精品无码片区_国产69精品久久久久9999_国产内射XXXXX
  • <source id="kqqcq"></source>
  • <legend id="kqqcq"></legend>