介绍
如果要在 代码空间中进一步开发 Spark,则可以直接从命令行使用 Spark CLI(GitHub CLI 的扩展)部署它。
先决条件
-
**对 GitHub Copilot 的访问权限**。 你需要 Copilot Pro+ 或 Copilot Enterprise 的许可证才能使用 Spark。 请参阅“[AUTOTITLE](/copilot/about-GitHub-copilot/what-is-GitHub-copilot#getting-access-to-copilot)”。 - 你必须已经构建 Spark 应用(“Spark”)。 要开始构建,请导航到 Spark。
- 已在 上 为 spark 创建了存储库 。 有关说明,请参阅“使用 GitHub Spark 构建和部署 AI 支持的应用”。
在代码空间中打开你的 Spark
Spark CLI 当前只能在 代码空间中工作。
- 导航到 上的 spark 存储库主页。
- 单击 Code 按钮,然后单击 Codespaces 选项卡。
- 单击 以创建代码空间。 代码空间将在新的浏览器选项卡中打开。
安装 Spark CLI
-
在终端内的代码空间中,运行以下命令以安装 Spark CLI:
Bash gh extensions install github/gh-runtime-cli
gh extensions install github/gh-runtime-cli -
安装完成后,若要验证是否已安装 Spark CLI,请运行:
Bash gh runtime-cli version
gh runtime-cli version
构建你的 Spark
-
在终端内的代码空间中,运行以下命令以安装 Spark SDK 的最新版本:
Bash npm install @github/spark@latest
npm install @github/spark@latest -
接下来,运行以下命令以编译Spark程序。
Bash npm run build
npm run build
部署你的 Spark
-
若要部署 Spark 应用,请执行以下命令:
Bash gh runtime-cli deploy --dir ./dist
gh runtime-cli deploy --dir ./dist
Troubleshooting
如果在部署 Spark 时被要求提供 --app 参数,请按照构建你的 Spark 中的第 1 步更新到 Spark SDK 的最新版本。