女人被狂躁到高潮视频免费无遮挡,内射人妻骚骚骚,免费人成小说在线观看网站,九九影院午夜理论片少妇,免费av永久免费网址

當(dāng)前位置:首頁 > 物聯(lián)網(wǎng) > 智能應(yīng)用
[導(dǎo)讀]DeepSeek開源AI模型的發(fā)布在技術(shù)界引起了很多興奮。它允許開發(fā)人員完全在本地構(gòu)建應(yīng)用程序,而無需連接到在線AI模型(例如Claude,Chatgpt等)。開源模型在構(gòu)建與生成AI集成的企業(yè)應(yīng)用程序時(shí)為新機(jī)會(huì)打開了大門。

DeepSeek開源AI模型的發(fā)布在技術(shù)界引起了很多興奮。它允許開發(fā)人員完全在本地構(gòu)建應(yīng)用程序,而無需連接到在線AI模型(例如Claude,Chatgpt等)。開源模型在構(gòu)建與生成AI集成的企業(yè)應(yīng)用程序時(shí)為新機(jī)會(huì)打開了大門。

在本文中,您將學(xué)習(xí)如何在個(gè)人機(jī)器上本地運(yùn)行這樣的模型,并構(gòu)建全棧React和Nodejs驅(qū)動(dòng)的應(yīng)用程序,而不僅僅是另一個(gè)聊天機(jī)器人。您將能夠使用此應(yīng)用程序來更快地分析簡歷并做出更明智的招聘決定。在構(gòu)建應(yīng)用程序之前,重要的是要了解開源LLM的好處。

開源大語模型的好處

開源模型與使用專有模型相對(duì)于使用專有模型提供了一些關(guān)鍵好處:

具有成本效益且無許可證

開源LLM具有成本效益,不需要特殊許可。例如,截至撰寫本文的日期,OpenAI的O1的成本為每百萬美元的產(chǎn)出代幣,開源DeepSeek R1的價(jià)格為2.19美元。

可自定義且可調(diào)

開源模型可以輕松地進(jìn)行微調(diào)以滿足獨(dú)特的業(yè)務(wù)案例 - 允許構(gòu)建更多特定于領(lǐng)域的用例。這導(dǎo)致企業(yè)應(yīng)用程序中的優(yōu)化性能。

增強(qiáng)數(shù)據(jù)安全性和隱私

開源使應(yīng)用程序更加安全,因?yàn)閷氋F的個(gè)人數(shù)據(jù)不需要上傳到第三方服務(wù)器,并且只能停留在本地機(jī)器或公司網(wǎng)絡(luò)上僅留在本地機(jī)器或公司網(wǎng)絡(luò)中。這提供了很高的數(shù)據(jù)安全性。此外,可以對(duì)開源模型進(jìn)行微調(diào)以刪除所有數(shù)據(jù)偏差。

社區(qū)驅(qū)動(dòng),沒有供應(yīng)商鎖定

開源模型享有巨大的社區(qū)支持,并受益于功能開發(fā)的快速發(fā)展。另一方面,使用屬性模型使應(yīng)用程序供應(yīng)商鎖定并依賴供應(yīng)商公司提供功能更新。

借助此信息,您可以使用DeepSeek R1開源模型,Node.js和React構(gòu)建一個(gè)真實(shí)的應(yīng)用程序。

項(xiàng)目和建筑概述

您將構(gòu)建簡歷分析儀的應(yīng)用程序 - 它將幫助您了解上傳簡歷的好處和缺點(diǎn)。 DeepSeek R1 LLM將分析上傳的簡歷并提供反饋。您可以通過下面的插圖了解應(yīng)用程序的體系結(jié)構(gòu)。

建筑圖

基于React的用戶界面使用REST API與基于NODEJS的后端進(jìn)行通信。然后,Nodejs后端將用戶請(qǐng)求發(fā)送到使用Ollama托管的DeepSeek R1。整個(gè)技術(shù)堆棧可以在單臺(tái)計(jì)算機(jī)上運(yùn)行,就像您在整個(gè)文章中所做的那樣,也可以在更復(fù)雜的用例中托管多個(gè)容器。

先決條件

· 要運(yùn)行該項(xiàng)目,您將需要一臺(tái)具有一些計(jì)算功率的計(jì)算機(jī),最好是具有NVIDIA圖形卡的計(jì)算機(jī)。該項(xiàng)目已在NVIDIA 4090RTX基于Windows Machine和M2 MacBook Pro上開發(fā)和測試。

· 您需要在計(jì)算機(jī)上安裝NodeJ。該項(xiàng)目已建立在Nodejs版本22.3.0上。您可以使用命令驗(yàn)證nodejs安裝node -v。

· 您還需要您選擇的編輯來完成代碼。 構(gòu)建應(yīng)用程序時(shí)已經(jīng)使用了Visual Studio代碼,通常建議使用。

在本地設(shè)置并運(yùn)行DeepSeek

要在本地運(yùn)行DeepSeek R1,請(qǐng)按照以下步驟操作:

1。從其官方網(wǎng)站安裝Ollama 。

2。安裝完成后,您將能夠使用ollama run計(jì)算機(jī)終端中的命令運(yùn)行模型。

3。運(yùn)行您選擇的DeepSeek模型。本教程是使用DeepSeek R1 8-Billon參數(shù)模型構(gòu)建的。您可以使用命令來運(yùn)行它ollama run deepseek-r1:8b。

4。如果您的規(guī)范計(jì)算機(jī)比前提條件部分中提到的機(jī)器較低,則7b和1.5b參數(shù)模型也將起作用,但是生成的輸出質(zhì)量可能較低。

5。模型可能需要花費(fèi)一些時(shí)間才能下載,因?yàn)樗鼈冃枰螺d。模型運(yùn)行后,您應(yīng)該能夠在終端中提出一個(gè)問題并獲取輸出。您可以參考下面的插圖,以查看行動(dòng)中的DeepSeek R1 8B模型。

Ollama DeepSeek R1

6。DeepSeekR1是一種推理模型,因此,它在給出可以產(chǎn)生的第一個(gè)答案之前就考慮了。正如上面插圖中強(qiáng)調(diào)的那樣,它在給我們提示的答案之前就在思考??梢栽跇?biāo)簽中看到這種想法 。

克隆和運(yùn)行nodejs后端

Ollama服務(wù)也可以通過API訪問。您將利用此API并構(gòu)建基于Nodejs的后端層。該層將從用戶中取上上載的PDF并從中提取文本。文本提取后,后端將通過Ollama API將文本饋送到DeepSeek R1模型,并恢復(fù)響應(yīng)。此響應(yīng)將發(fā)送給客戶端以顯示給用戶。

1。使用此URL從GitHub克隆后端項(xiàng)目。理想情況下,您應(yīng)該分配項(xiàng)目,然后克隆自己的本地副本。

2。克隆后,要運(yùn)行項(xiàng)目,請(qǐng)使用CD轉(zhuǎn)到項(xiàng)目根目錄deepseek-ollama-backend。

3。一旦進(jìn)入項(xiàng)目根,就通過給出npm install命令來安裝依賴項(xiàng)。安裝完成后,可以使用命令運(yùn)行項(xiàng)目npm start。項(xiàng)目的核心是app.js 文件。檢查下面提供的代碼。

const express = require('express');

const multer = require('multer');

const pdfParse = require('pdf-parse');

const axios = require('axios');

const fs = require('fs');

const cors = require('cors');

const app = express();

app.use(cors());

app.use(express.json());

const upload = multer({

dest: 'uploads/',

fileFilter: (req, file, cb) => {

file.mimetype === 'application/pdf' ? cb(null, true) : cb(new Error('Only PDF files are allowed!'));

}

}).single('pdfFile');

app.post('/analyze-pdf', (req, res) => {

upload(req, res, async function(err) {

if (err) {

return res.status(400).json({ error: 'Upload error', details: err.message });

}

try {

if (!req.file) {

return res.status(400).json({ error: 'No PDF file uploaded' });

}

const dataBuffer = fs.readFileSync(req.file.path);

const data = await pdfParse(dataBuffer);

const pdfText = data.text;

fs.unlinkSync(req.file.path);

const response = await axios.post('http://127.0.0.1:11434/api/generate', {

model: "deepseek-r1:8b",

prompt: `Analyze this resume. Resume text is between two --- given ahead: ---${pdfText}---`,

stream: false

});

res.json({ success: true, message: 'Successfully connected to Ollama', ollamaResponse: response.data });

} catch (error) {

if (req.file && fs.existsSync(req.file.path)) {

fs.unlinkSync(req.file.path);

}

res.status(500).json({ error: 'Error processing PDF', details: error.message });

}

});

});

if (!fs.existsSync('uploads')) {

fs.mkdirSync('uploads');

}

const PORT = process.env.PORT || 3000;

app.listen(PORT, () => {

console.log(`Server is running on port ${PORT}`);

});

4??蛻敉ㄟ^調(diào)用/analyze-pdf類型的API端點(diǎn)與后端進(jìn)行交互POST??蛻舳藢⒂脩魟h除的PDF文件作為有效載荷發(fā)送給此API。

5。服務(wù)器將該文件uploads臨時(shí)存儲(chǔ)在目錄中,并將文本提取在文件中。

6。然后使用Ollama的Localhost API端點(diǎn)提示DeepSeek R1 。

7。DeepSeek R1分析了簡歷的內(nèi)容并提供了反饋。然后,使用此分析使用該服務(wù)器對(duì)客戶端響應(yīng)res.json()。

克隆和運(yùn)行React用戶界面

該項(xiàng)目的用戶界面將允許用戶上傳簡歷,將此簡歷發(fā)送到后端,然后將DeepSeek R1簡歷分析的結(jié)果顯示給用戶。它還將顯示內(nèi)部思想鏈或?qū)eepSeek R1的思考。

1。要開始,分叉然后從此Github URL中克隆該項(xiàng)目。如果您不打算進(jìn)行許多自定義,則可以簡單地克隆它。

2??寺№?xiàng)目后,使用命令轉(zhuǎn)到根項(xiàng)目目錄cd deepseek-ollama-frontend。

3。在項(xiàng)目根部內(nèi),使用npm install命令安裝必要的依賴項(xiàng)。安裝完成后,使用命令啟動(dòng)項(xiàng)目npm run dev。

4。此React應(yīng)用的主要組成部分是重新分析儀。在您選擇的編輯中打開它并進(jìn)行分析。

5。此組件提供了一個(gè)輸入字段供用戶上傳文件。

6。上傳的文件使用API端點(diǎn)發(fā)送到服務(wù)器。

7.服務(wù)器的響應(yīng)分為兩個(gè)部分的內(nèi)部思考和模型的實(shí)際響應(yīng)。

8。該AnalysisSection組件顯示模型的響應(yīng)以及包含ExpandableSection組件,該組件用于顯示DeepSeek R1的內(nèi)部思維。

9。導(dǎo)航到瀏覽器中的URL加載應(yīng)用程序。上傳您的簡歷(或任何樣本簡歷),并觀察DeepSeek R1收到的分析。

結(jié)論

DeepSeek R1提供了一個(gè)獨(dú)特的機(jī)會(huì),可以在內(nèi)部完全 構(gòu)建Genai-Power應(yīng)用程序,并根據(jù)您的需求對(duì)其進(jìn)行自定義。

在本文中,您了解了使用開源Genai模型的好處。此外,您已經(jīng)使用DeepSeek R1,Node.js和React設(shè)置了一個(gè)真實(shí)的應(yīng)用程序。此設(shè)置使您可以使用AI完全離線執(zhí)行簡歷分析。您可以使用此工具在您的組織中雇用SMART,我建議您繼續(xù)基于本文獲得的知識(shí)并探索更多用例和應(yīng)用程序。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

LED驅(qū)動(dòng)電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: 驅(qū)動(dòng)電源

在工業(yè)自動(dòng)化蓬勃發(fā)展的當(dāng)下,工業(yè)電機(jī)作為核心動(dòng)力設(shè)備,其驅(qū)動(dòng)電源的性能直接關(guān)系到整個(gè)系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動(dòng)勢抑制與過流保護(hù)是驅(qū)動(dòng)電源設(shè)計(jì)中至關(guān)重要的兩個(gè)環(huán)節(jié),集成化方案的設(shè)計(jì)成為提升電機(jī)驅(qū)動(dòng)性能的關(guān)鍵。

關(guān)鍵字: 工業(yè)電機(jī) 驅(qū)動(dòng)電源

LED 驅(qū)動(dòng)電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個(gè)照明設(shè)備的使用壽命。然而,在實(shí)際應(yīng)用中,LED 驅(qū)動(dòng)電源易損壞的問題卻十分常見,不僅增加了維護(hù)成本,還影響了用戶體驗(yàn)。要解決這一問題,需從設(shè)計(jì)、生...

關(guān)鍵字: 驅(qū)動(dòng)電源 照明系統(tǒng) 散熱

根據(jù)LED驅(qū)動(dòng)電源的公式,電感內(nèi)電流波動(dòng)大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關(guān)鍵字: LED 設(shè)計(jì) 驅(qū)動(dòng)電源

電動(dòng)汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產(chǎn)業(yè)的重要發(fā)展方向。電動(dòng)汽車的核心技術(shù)之一是電機(jī)驅(qū)動(dòng)控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機(jī)驅(qū)動(dòng)系統(tǒng)中的關(guān)鍵元件,其性能直接影響到電動(dòng)汽車的動(dòng)力性能和...

關(guān)鍵字: 電動(dòng)汽車 新能源 驅(qū)動(dòng)電源

在現(xiàn)代城市建設(shè)中,街道及停車場照明作為基礎(chǔ)設(shè)施的重要組成部分,其質(zhì)量和效率直接關(guān)系到城市的公共安全、居民生活質(zhì)量和能源利用效率。隨著科技的進(jìn)步,高亮度白光發(fā)光二極管(LED)因其獨(dú)特的優(yōu)勢逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關(guān)鍵字: 發(fā)光二極管 驅(qū)動(dòng)電源 LED

LED通用照明設(shè)計(jì)工程師會(huì)遇到許多挑戰(zhàn),如功率密度、功率因數(shù)校正(PFC)、空間受限和可靠性等。

關(guān)鍵字: LED 驅(qū)動(dòng)電源 功率因數(shù)校正

在LED照明技術(shù)日益普及的今天,LED驅(qū)動(dòng)電源的電磁干擾(EMI)問題成為了一個(gè)不可忽視的挑戰(zhàn)。電磁干擾不僅會(huì)影響LED燈具的正常工作,還可能對(duì)周圍電子設(shè)備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來解決L...

關(guān)鍵字: LED照明技術(shù) 電磁干擾 驅(qū)動(dòng)電源

開關(guān)電源具有效率高的特性,而且開關(guān)電源的變壓器體積比串聯(lián)穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機(jī)重量也有所下降,所以,現(xiàn)在的LED驅(qū)動(dòng)電源

關(guān)鍵字: LED 驅(qū)動(dòng)電源 開關(guān)電源

LED驅(qū)動(dòng)電源是把電源供應(yīng)轉(zhuǎn)換為特定的電壓電流以驅(qū)動(dòng)LED發(fā)光的電壓轉(zhuǎn)換器,通常情況下:LED驅(qū)動(dòng)電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: LED 隧道燈 驅(qū)動(dòng)電源
關(guān)閉