一、什么是大语言模型
大语言模型本质上是一种通过海量文本数据训练出来的,用于理解、生成和响应类似人类语言文本的神经网络模型。
之所以称为“大语言模型”,“大”主要体现在两个方面:
2026/4/8大约 8 分钟
大语言模型本质上是一种通过海量文本数据训练出来的,用于理解、生成和响应类似人类语言文本的神经网络模型。
之所以称为“大语言模型”,“大”主要体现在两个方面:
在正式开始预训练之前,还需要完成两项基础工作:准备文本数据、以及把文本数据转换成向量格式。
大语言模型最终能学到什么,很大程度上取决于它“读过什么样的内容”。
让大模型具备行动能力,可以说是我们通往 AGI(通用人工智能,指的是具备甚至超越人类水平的人工智能系统) 的必经之路。
从最开始的提示工程到现在的 MCP(模型上下文协议),我们一步步为大模型装上了“手和脚”——可以调用工具、读写文件、执行任务等,并且不断完善。
目前大模型的发展日新月异,模型架构快速迭代、各类 AI 工具与概念层出不穷——Cursor、Codex、Augement、Trae、Qoder 等等等等,面对这些海量信息,真是让人头大。
GitHub MCP Server 是 GitHub 官方提供的 MCP 实现,它封装了仓库、Issue、PR、Workflow 等 API,使模型能够安全地管理仓库与协作流程。
Github MCP Server 仓库地址:https://github.com/github/github-mcp-server