發表文章

目前顯示的是 2025的文章

原來使用 .net 寫個 MCP Client 也如此簡單

圖片
之前我發了一篇文章,標題是「原來使用 .NET 寫一個 MCP Server 如此簡單」。結果有不少朋友留言敲碗,說:「只有 Server,沒有 Client,這怎麼行?」 呃…我只能說,這個要求顯然 很有道理 。🙄 所以今天趁上課的空檔,補一篇文,來介紹如何撰寫 MCP Client ,把整個架構補齊。 你會發現,其實,開發 MCP Client 也非常簡單耶。 MCP 架構的本質 不過,在開始之前,有一個觀念需要釐清:無論是 MCP Server 或 MCP Client,其實都與 LLM(大型語言模型)沒有 直接關聯 ,這和很多人理解的不同。 MCP 架構的本質,只是為了讓 AI Agent(或 Chat Bot)更容易知道怎麼呼叫外部的服務提供者(就叫做MCP Server),並且能方便地列舉出這些服務所提供的功能(就叫做MCP Server Tool),以及清楚了解每個功能呼叫時所需的參數。某種程度上,它的角色有點類似早期 Web Service 時代的 WSDL/SOAP ,或是現代 REST API 架構中的 Swagger/OpenAPI 👉👉 都是用來提供一種 標準化的服務描述與呼叫方式 ,使服務整合變得更一致、更具可預測性。 至於, 什麼時候該呼叫哪一個功能 、呼叫時所要填入的具體參數 值 是什麼,這些判斷與決策的工作,才是由 AI(LLM) 來處理的。而真正去執行這些呼叫動作的,則是 AI Agent(或者稱之為,MCP Host)。 簡單的說就是,對談機器人(或AI Agent)可以藉由 LLM 來呼叫遠端的服務,而 MCP 架構則讓對談機器人可以得知有哪些服務可供呼叫,並且在呼叫時應該要傳入哪些參數。 因此,要開發一個能夠呼叫 MCP Server 服務的 Client 端,自然也需要建立一個具備決策與執行能力的 AI Agent。 這部分,我們待會會採用 Semantic Kernel 作為實作的基礎框架。 之前我們 早已介紹過 Semantic Kernel ,它不僅可以介接各種 大語言模型(像是 OpenAI 或 Azure OpenAI),還能彈性地設計與掛上各種 skills 與 plugins ,非常適合用來打造具備「對談 → 意圖理解 → 功能選擇 → 發出呼叫」這一整套流程的AI Agen...

原來使用 .net 寫個 MCP Server 如此簡單

圖片
MCP 的重要性與意義 MCP 的重要性在於它建立了一個標準化的架構,讓開發者能夠快速建構出給 AI Agent 呼叫的各種功能。 舉例來說,假設我們希望實現一個 可以透過自然語言對談的請假功能 ,傳統上我們必須建立一個前端 Chat Bot 作為 UI、還得撰寫後端 API、資料驗證邏輯、資料庫存取介面…等,另外還要設計 Chat Bot 的對話邏輯,才能把請假功能整合到Chat Bot的對談訊息中。 但在 MCP 的架構下,這樣的流程可以大幅簡化。 開發者只需要實作幾個「請假功能」的介面(Tool Interface),接著定義好運行這個功能需要輸入哪些參數(例如請假人、開始時間、代理人、事由…etc.),並透過 JSON 來描述這些參數的格式與驗證邏輯。接著,AI Agent 便可以在對話過程中,自動根據對談前後文理解使用者意圖,挑選出適合的Tool來運行,主動發出呼叫的請求。如此一來,大幅簡化了AI Agent開發的難度。(本質上就是 Function Calling 的概念) 而 .net 又把這個難度降低到人人可以開發的程度,底下是一個使用 .net 開發的 請假功能 MCP Server,並且使用 GitHub Copilot來呼叫的例子: 其實我之前用 Semantic Kernel做個類似的範例,只是如今 .net 讓它變得更簡單,而且輕易地可以透過MCP架構讓不同的 MCP Client端呼叫使用。 如何用 .NET 撰寫 MCP Server 要使用 .NET 撰寫 MCP Server 非常簡單,受益於 Microsoft.Extensions.Hosting 和 ModelContextProtocol 套件,我們可以在幾分鐘內輕鬆地實作 MCP Tool 和 MCP Server 。 以下是MCP Server的完整程式碼: using Microsoft . Extensions . DependencyInjection ; using Microsoft . Extensions . Hosting ; using Microsoft . Extensions . Logging ; using ModelContextProtocol . Server ; using System ...

在VS Code當中使用 Azure DevOps MCP Server

圖片
來看看這張圖發生了什麼事情? 沒錯,我們正在VS Code當中,使用 GitHub Copilot Agent Mode,透過自然語言的方式,查詢Azure DevOps中的工作項(WorkItems)。 其實,不僅僅可以查詢,也可以檢視細節、甚至新增、修改。範圍也不只有 WorkItems ,還包含 Pipeline 的觸發、PR的建立或PR Comment的新增…等,全部都可以透過自然語言來進行。 而這些,全都拜MCP所賜。 關於MCP 你大概聽說過 MCP,它是 Anthropic 提出的一套開放式標準協議(Model Context Protocol) ,旨在讓大型語言模型(LLMs)可以安全、模組化、可擴充地存取外部工具和資料來源。 簡單來說,你可以把 MCP 想像成 AI 世界中自然語言對談機器人對外的接口,像是我們寫程式的時候,可以透過 API 來串接外部系統, MCP 就是大語言模型對外「運行指令與資料交換」的標準協議 。 不同的是,傳統 API 是設計給 開發者 來用的,強調結構化資料、明確定義與嚴謹的格式;但 MCP 是設計 給大語言模型用 的,它理解自然語言、懂語意、會參考上下文。MCP 的設計讓模型能夠和用戶在以「對話的方式」溝通時,依照用戶的命令與外部系統互動,但底層其實還是透過 function calling 的概念與結構化的 JSON 交換資料,只是這一切都被封裝得更自然、更貼近人類使用者的自然語言。 如同上面你看到的,大語言模型透過 MCP,可以自動呼叫 Azure DevOps 系統的API,查詢資料、比對欄位、下指令修改狀態,整個流程就像是你請了一位懂 DevOps、又能聽懂人話的數位助理。 底下是新增一個 bug 單的例子: 這正是 MCP 的魔力: 讓大語言模型從資訊生成者,進化為任務執行者 。這背後不只是一個協議,而 是未來開發體驗的轉變 。未來開發者不再只寫程式,而是設計如何與 AI 協作;工作流程不再只是「使用工具」,而是「 與工具對話 」。 如何實現? 作法比想像的簡單超級多,由於最新版的 VS Code 和 GitHub Copilot 已經支援 MCP,所以你只需要確認你是在 Agent Mode(下圖一),然後在專案工作區的 .vscode 資料夾中,置入一個 mcp.json 檔案...

Retrospective

圖片
圖片來自於孫運璿科技.人文紀念館 我一直很喜歡參觀古人的故居。 每次走進那種低調安靜的宅邸,最吸引我的,不是家具擺設,而是那些手寫的日記本。 像是在張學良故居看到他被幽禁時寫下的心情紀錄,或是在孫運璿的紀念館裡,看見他密密麻麻記錄每日行程與思考。那些筆跡,有時草率、有時端正,但都誠懇真實,像是他們用一種不對外的方式,試圖整理當天的得失與迷惘。 當時我就在想,這種「每天花一點時間檢視自己」的習慣,似乎是早些年來古人自我進化的方式? 有次,我們的系統在午間出現異常。 某個服務負載暴增,導致對外 API 幾乎停擺。 還好有同仁臨機應變,緊急調整參數、加上快取,才把系統救了回來。當天下午,大家在Teams 上一片感謝與稱讚:「反應太快了!」「厲害!」「幸好有你!」 然後,事情好像就這樣告一段落了。 但讓我印象很深的是——沒有人再回頭問:「為什麼會出問題?」 更沒有人提:「我們下次該怎麼避免這件事?」 這不是第一次,也不會是最後一次。 很多團隊都有個像是默契般的傾向: 只看事情怎麼解決,卻不去問事情為什麼會發生。 表面上看起來是一種積極正向的態度,但其實正是這種「避談錯誤」的文化,悄悄地讓我們錯失最寶貴的反省機會。 我一直很認同一句話:「寫出 bug、系統出錯、都沒關係,重點是團隊有沒有從中學到什麼?」每個迭代後的 Retrospective,才是團隊讓自己成長的機會。 很多古人有寫日記的習慣,不是為了記錄流水帳,而是每天逼自己回顧、和自己對話、幫自己成長。 曾國藩日課四條,日日記錄得失;朱熹、顧炎武、王陽明……這些歷史上的思想家,都透過日記整理自己的人生狀態和判斷標準。 這在今天看來,和我們寫技術筆記、開 retrospective會議,或是 incident postmortem,是如出一轍。 真正讓團隊變強的,不是「沒出錯」,而是「出了錯,敢講出來,能夠面對,願意修正。」 所以,當我們在 postmortem 或 retrospective 中回顧那些「差點出事但救回來」的案例時,可以多問一句:「這次為什麼會這樣?我們下一次可以怎麼避免?」retro,不是為了指責誰,而是為了讓我們不需要再依賴運氣。 這樣的文化,才會讓一個團隊真的進步; 這樣的思維,才會讓一個工程師真正成長。 參考 課程: 敏捷開發與Azure De...

使用 Render.com 作靜態網站的自動化佈署

圖片
最近在上課時,為了讓不想花錢申請 Azure 雲端服務的學員,也能夠實際體驗 CI/CD 的開發流程,我一直在尋找一個 免費、簡單 的網站部署的平台。希望用戶只要有 GitHub 帳號,就能將 repo 內的網站經由 GitHub Actions 自動佈署到雲端。 試過幾個方案之後,最後選擇了 Render.com 。它不但提供免費的靜態網站託管,還能輕鬆與 GitHub 整合,自動化部署流程幾乎沒什麼難度,非常適合教學與初學者練習使用。 什麼是 Render.com Render.com 是一個現代化的雲端平台,提供簡單、快速且免費的網站服務。​透過與 GitHub 的整合,開發者可以輕鬆地將靜態網站自動部署到 Render,並利用 GitHub Actions 進行持續整合與部署(CI/CD)。 Render 支援多種服務類型,包括: 靜態網站(Static Sites) :​適用於 HTML、CSS、JavaScript 等前端資源,透過全球 CDN 提供快速、安全的內容傳遞。 Web 服務(Web Services) :​支援 Node.js、Python、Ruby 等後端應用程式的部署。(但不支援 .net) 私有服務(Private Services) 、 背景工作(Background Workers) 、 排程任務(Cron Jobs) :​適用於內部服務、非同步處理及定時任務。 如何從 GitHub 部署靜態網站到 Render Render 本身直接支援自動化佈署,你可用 GitHub 帳號申請Render.com ,並且直接建立一個靜態網站: 你可以在建立站台的時候,直接選擇要從哪一個 GitHub Repo 進行佈署: 在選擇好後,你可以配置該網站關聯的資料來源位置(選擇Repo中的資料夾): 設定完成之後,只需要一鍵就能佈署完成: 如果要變成自動化呢? 我們可以在 GitHub Repo 中設定 Action,來進行網站的自動化佈署。 由於Render.Com 提供一個自動化佈署的 WebHook(本質上就是一個API),只要呼叫該API, Render.com 就可以自動從 GitHub repo 中取得最新的程式碼,並且佈署到伺服器端: 也因此,只要我們為其配置一個 GitHub Acti...

使用 GitHub Models 上免費的LLM(大語言模型) 進行測試開發

圖片
對多數開發人員而言,GitHub 不僅是一個儲存程式碼的地方,更是一整套開發流程的中樞。從原始碼管理、Issue 討論、Pull Request 協作,到 CI/CD 整合,GitHub 提供了豐富的功能,支援現代軟體開發的各個階段。 這使得 GitHub 一推出 GitHub Models ,立即讓人眼睛一亮。這項功能對開發人員來說,堪稱是一大福音。它提供了多種 LLM(大型語言模型)的介接能力,並且開放免費使用,讓開發者在無需註冊 OpenAI、Azure 或其他雲端服務帳號的情況下,就能快速體驗 LLM 在程式設計與AI Agent 開發的應用潛力。 對於尚在試驗階段,或使用頻率不高的個人或小型團隊來說,這不僅省下了搭建本地模型環境的複雜度與資源消耗,也大幅降低了學習與導入門檻,真正做到「人人都能用 AI 來寫程式」。 如何使用 要使用 GitHub Models 相當簡單,你只需要有 GitHub 帳號(不管是否有付費均可),即可從底下網址進入 Models : https://github.com/marketplace/models 進入後,先在左上角選擇你想使用的 Model : 你會發現選擇琳瑯滿目,從 OpenAI 系列,到微軟的 Phi-3、DeepSeek、Llama 任君選用。 選擇好之後,你可以在測試區,輸入對談文字測試看看,會看到大語言模型的回應文字: 你還可以按下Compare: 去比較兩款不同的大語言模型,在回應上是否有所不同: 如果要調整 System Prompt、Max Tokens、Temperature 等長用參數,可以在右上方找到。 選擇好你想用的模型之後,如果想要著手開發,可以切換到 Code,這邊可以讓你選擇不同的開發技術,網頁上會依照你的選擇,出現相對應的程式碼範例: 注意,這邊的 API Endpoint 和官方模型有所不同,是唯一你在使用 GitHub Models 時需要調整的地方。 申請 Token 在呼叫該 API時,一樣會需要一個 token。 你可以在底下位置申請: https://github.com/settings/personal-access-tokens/new 進入後找到 Permissions,展開後選擇 Models,將其設為Read-...

隨手做一個支援 RAG 的 AI Agent

圖片
隨著 AI 應用在各種開發場景中愈來愈普及,微軟也持續優化 .NET 生態系對 AI 開發的支援。最新釋出的 .NET AI Chat Web App Template Preview 2 ,為開發者提供了一套更加完整且實用的範本,讓使用者可以快速建立支援 Retrieval-Augmented Generation(RAG)模式的聊天應用程式。 🛠️安裝 .NET AI Chat Template 要開始使用這個全新的 AI Chat 範本,只需要透過簡單幾個指令,就能在你的開發環境中安裝並啟用。 首先,請開啟 Terminal 命令列介面,執行以下指令來安裝最新版的範本套件: dotnet new install Microsoft.Extensions.AI.Templates 安裝完成後,你就可以直接使用 .NET CLI 建立新的 AI Chat 專案了。舉例來說,若要在當前目錄中建立一個新的 aichat 專案,只需執行: dotnet new aichatweb 執行後,使用 VS Code 開啟專案,只需要做一些簡單的設定: 在 appsettings.json 中,配置好 你的 GitHub Models Token( 這裡有介紹 ): "GitHubModels" : { "Token" : "github_pat_11AOOOOOOOOOOOOOOOMnB" } 並且在 wwwroot 的 Data 資料夾底下,放入你要進行檢索的 PDF 文件,確定一下你的環境有 .net 9 SDK,接著透過 dotnet run 就可以執行啦。 運行的結果如下: 在出現的畫面中,你可以直接對 PDF 文件進行詢問,系統會依照PDF文件中的內容進行回答,出現的準確度也還算不錯。 隨著 .NET AI Chat Template 的功能越來越完整,開發者現在可以更輕鬆地搭建基於自有資料的智慧聊天應用,不需要繁瑣的部署過程,也無需額外申請複雜的雲端服務。無論是個人實驗、專案原型,還是小型產品開發,都可以快速起步並持續擴展。如果你還沒試過,不妨趁著這次更新體驗看看,相信它會成為你未來 AI 開發流程中不可或缺的一環。 📚 延伸閱讀 .NET AI...

AI 時代的 Vibe Coding,真的會讓技術債爆炸嗎?

圖片
最近看到網路上不少人 vibe coding 與技術債之間的關係,甚至認為它將會等同於是「技術債製造機」。特別在 AI 越來越普及的今天,慢慢有一些開發者開始擔心:『 LLM 將會讓初階開發者更容易產出劣質程式碼,進而拖垮整體專案品質 』。 但這真的是事實嗎? 我認為 未必 。 工具從來不是問題,關鍵是『人』 首先,我們得承認一件事: 會寫出技術債的開發者,用什麼工具都會寫出技術債。 早年,我們沒有 Google,只能查書或參考學長、前輩們 code 的寫;後來有了 Stack Overflow,我們學會了複製貼上;如今換成了 LLM,連搜尋都省了,直接叫 AI 生成就有範例可以參考。 這些方式起來可能都「有點草率」,甚至「有些不專業」,但我們也必須正視一個事實: 開發人員的成長曲線,本來就包含大量模仿與嘗試錯誤的過程。 很多今天能獨當一面的工程師,都是從這樣的方式走過來的。工具從來都不是問題,真正的問題 是你怎麼用它 。 會亂用工具的人,即使給他的是超強 IDE,他也能寫出災難;但會自主學習的人,哪怕用的是 AI,也能學得更快、做得更好。 技術債的真兇,不是 AI,是 落後流程 那照上面這樣的說法, AI 是不是依舊有可能會讓初階工程師更快產出「不嚴謹」的程式碼,進而在團隊中埋下大量的技術債呢? 這個問題的假設前半段可能對,但後半段則離道甚遠。 AI 確實讓開發速度加快,但這就代表技術債會快速增加嗎?不一定。 因為真正能預防技術債的從來就不是「人」,而是「流程」。 一個成熟的軟體專案,理應早已建構有良好的 CI/CD Pipeline,並在其中配置自動化的程式碼品質檢查工具,例如 SonarQube、Checkmarx、ESLint 等,可以在自動化流程中,輕鬆地幫我們掃瞄出類似底下這樣的技術債或安全性報告,讓開發人員即時進行改善(參考 這裡 ): 甚至,現在我們還可以導入 GPT-4o、Claude 等 LLM,針對 Pull Request 的 Code Changes 自動執行語意層級的程式碼分析與品質建議。(參考我 這邊 的貼文) 也就是說, AI 能讓「開發變快」,同時也能讓「品質監控變更快」。 只要團隊有紀律地執行這些流程,vibe coding 所產生的技術債,根本無法長存於系統當中。甚至開發者還能透過每日的掃描...

在 GitHub 的 PR Trigger Action中,使用 AI 進行自動化 Code Review

圖片
過去我曾介紹過 在 Azure DevOps 中,使用 LLM 進行 code review 以及程式碼品質掃描(在 [here] & [here] ),得到許多回響,有不少朋友問,是否在 GitHub Repo 中也可以? 答案是…當然可以! 透過 GitHub Actions,我們可以輕鬆整合 OpenAI API 或其他大型語言模型(LLM)服務,打造出自動化的程式碼審查流程。這不僅能協助團隊在每次 Pull Request(PR)時即時分析程式碼品質,還能提供風格建議、安全性提醒,揭露潛在的技術債,使得 AI code review 不再只是理想,而是落地實踐的 DevOps 一環。 要實現這個功能,我們只需要幾個關鍵步驟,即可在 GitHub 的 PR 流程中,部署一個基於 LLM 的程式碼品質掃描機制。 首先,建立一個 GitHub Action workflow,觸發時機設定為 pull_request 。接著,我們可以撰寫一個 yaml 腳本,在 PR 被觸發時,讀取變更的程式碼(commit changes)並送出給 LLM API(例如 OpenAI 的 GPT-4)。最後,將分析結果格式化為 comment,自動撰寫在 PR 回覆中,讓開發者即時收到建議。 我們先來看執行的效果。 底下 repo 中原本有一段程式碼,是計算BMI用的: public void OnPost ( ) { if ( Weight . HasValue && Height . HasValue && Height > 0 ) { Height = Height / 100 ; // Convert height from cm to m BMI = Weight / ( Height * Height ) ; } } 我在分支中將其修改如下,請注意,其中有很多明顯的bug和不當的寫法: public void OnPost ( ) { if ( Weight . HasValue && Height . HasValue && Height ...

2024 LINE Bot 帳號申請流程變革

圖片
只要活著,就會改變。 我常說,只要你待在資訊領域夠久,那『 變化 』這件事情對你來說,就絕對是家常便飯。 LINE Bot 最近的變化是,從 2024/9/4 之後,開發人員無法透過 LINE Developer Console 建立 LINE Bot 帳號囉。 過去,開發人員一般都在 LINE Developer Console 建立 LINE Bot 對談機器人( LINE Messaging API channel),其實也就是官方帳號,為了讓入口更加一致,現在改為統一在 LINE Official Account Manager 才能建立。 如果你從 LINE Developers Console 進去,試圖建立 LINE Bot 帳號,現在會看到底下畫面: 也就是請您改為到 LINE Official Account Manager 建立,點選按鈕之後,會出現: 依照步驟建立好之後,你可以選擇暫時不要申請認證帳號: 進入管理畫面後,可以先去開啟 LINE Messaging API 功能,先選擇左上角的設定: 接著在左方選單選擇 Messaging API,並啟用: 這個步驟一定要做,否則,你將無法在 LINE 開發人員後台(LINE Developer Console)看到該帳號 過程中你會成功的讓該官方帳號啟用 LINE Messaging API功能,並且選擇或建立 Service Provider: 同時也可以在這邊設定 WebHook,但建議切換到 LINE Developers 後台進行後續設定: 我自己覺得這個改變很是關鍵。 這讓對談機器人的建立主導權,從開發團隊移轉到帳號擁有者身上。這是一件好事,怎麼說呢? 過去,很多甲方的客戶(業主)並不知道其實自己就可以建立一個新的對談機器人,或是可以自行把已經建立好的官方帳號升級(加入)對談機器人的功能,以為必須透過開發商(乙方)來建立。甚至可能也不知道其實不需要開發商的介入就可以自行設定 WebHook 來改變官方帳號的自動化行為。 這導致,開發商總是用自己的公司(或工作室)名稱來幫業主申請官方帳號,徒增後續的帳號認證和管理、移轉權限的困擾。如今這樣調整之後,整個帳號建立、設定的主導權從開發商回歸官方帳號的業主身上,省去彼此間權利義務歸屬的困擾。...

在大語言模型(LLM)中使用企業內的資料

圖片
大型語言模型(LLM)雖然很好用,但在生成回應時,可能會出現「幻覺」現象,生成與事實不符的內容。此外,LLM 的知識受限於訓練資料,無法即時更新。為解決這些問題,檢索增強生成(RAG)技術常被引入,透過從外部知識庫擷取相關資訊,為模型提供最新且準確的資料。這樣可以提高用戶詢問問題時,回應的準確性,也減少了重新訓練模型的成本。但建立RAG功能往往需要一些技術能力,對一般用戶來說可能不是人人都可以實施。 因此,在 Azure OpenAI 服務中,加入了「新增您的資料」(Add Your Data)功能,允許使用者將自訂的非結構化或結構化資料(如 PDF、Word、MarkDown、純文字…等)整合到 OpenAI 模型中,以提供更具上下文相關性的回答。 這項功能透過 Azure AI Search 進行索引,並運用像是 Retrieval-Augmented Generation (RAG) 這樣的技術,在用戶詢問問題時,優先檢索事先準備好(索引過)的資料,將其作為LLM回應的基礎,以提升回應的準確性。這技術適用於知識庫QA、企業內部搜尋 及 AI 助理…等應用,無須微調模型即可實現個性化且正確的回應。 使用「新增您的資料」 使用的方式也很簡單,當你佈署好一個AOAI的LLM模型(例如 gpt-4o)之後,可以到上圖中的聊天遊樂場,接著按下圖中「新增您的資料」按鈕,在出現的畫面上選擇Upload files: 接著你會看到底下畫面,請先點選藍色的小字,建立 Azure Blob 與Azure AI Search 服務(建立時建議與AOAI佈署在同一個資料中心): 建立儲存體時,可以參考底下設定(名稱則可以自行選擇): 建立 Azure AI Search 服務時,則可以參考底下: 完成後,我們回到 Add Your Data 的設定畫面,請依照底下順序操作: 先選取 Azure Blob 與 Azure AI Search 服務,接著輸入索引名稱(可自行設定),然後暫不勾選新增向量搜尋,最後按下『開啟CORS』,成功後,會出現底下畫面: 你會發現顯示的訊息變成綠色,這時候就可以按『下一個』按鈕繼續。 接著,你就可以在底下畫面上傳檔案(可以接受 pdf, 文字檔, docx, pptx 等多種格式…): 然後會出現讓你選擇搜尋類...