一个简单的工具,可使用 AI 将屏幕截图、模型和 Figma 设计转换为干净、实用的代码。

视频播放器

支持的堆栈:

  • HTML + 顺风

  • 反应 + 顺风

  • Vue + 顺风

  • 引导程序

  • 离子 + 顺风

  • 静止无功发生器

支持的AI模型:

  • GPT-4 Turbo(2024 年 4 月)- 最佳型号

  • GPT-4 Vision(2023 年 11 月)- 在某些输入上比 GPT-4 Turbo 更好的好模型

  • Claude 3 Sonnet – 对于许多输入来说,速度更快,并且与 GPT-4 视觉相当或更好

  • 用于图像生成的 DALL-E 3

我们还刚刚添加了实验性支持,用于拍摄正在运行的网站的视频/屏幕记录并将其转变为功能原型。

开源项目:【GitHub

网盘下载:【点击下载

安装教程:

该应用程序有一个 React/Vite 前端和一个 FastAPI 后端。如果您想使用 Claude Sonnet 或实验性视频支持,您将需要一个能够访问 GPT-4 Vision API 的 OpenAI API 密钥或一个 Anthropic 密钥。

运行后端(我使用 Poetry 进行包管理 –pip install poetry如果你没有它):

cd backend

echo "OPENAI\_API\_KEY=sk-your-key" \> .env

poetry install

poetry shell

poetry run uvicorn main:app --reload --port 7001


如果您想使用 Anthropic,请将与您的 Anthropic 的 API 密钥一起ANTHROPIC_API_KEY添加。backend/.env

运行前端:


cd frontend

yarn

yarn dev


打开http://localhost:5173以使用该应用程序。

如果您希望在不同端口上运行后端,请更新 VITE_WS_BACKEND_URLfrontend/.env.local

出于调试目的,如果您不想浪费 GPT4-Vision 积分,您可以在模拟模式下运行后端(该模式会传输预先录制的响应):

MOCK=true poetry run uvicorn main:app --reload --port 7001


Docker 一键安装命令:

echo "OPENAI\_API\_KEY=sk-your-key" \> .env

docker-compose up -d --build


© 版权声明

文章版权归作者所有,未经允许请勿转载。

THE END