一款集成多平台AI绘画API的智能创作工具,支持提示词智能扩展与多样化绘画风格 ✨ 核心功能 🤖 智能提示词扩展 AI自动扩展:输入简单关键词(如"猫"、"森林"、"夕阳"),AI自动扩展成80-120字的专业绘画描述 本地智能降级:当AI服务不可用时,自动启用本地智能扩展库,支持9大类常见主题 多维度描述:自动生成包含主体特征、场景环境、光线色彩、氛围情感、动态细节的完整描述 扩展示例: 输入:小狗 输出:一只活泼的橘色小狗欢快地奔跑在翠绿的草坪的草地上,清晨的明媚阳光穿过云层, 在草地上投下斑驳的光影,小狗灵动的毛发在微风中轻轻飘动,它尾巴着,琥珀色的眼眸透 露着纯真与快乐,微风拂过树梢的沙沙声从远处传来,时光仿佛在此刻凝固,整片一角金黄 色,宁静而祥和,梦境般的仙境 2. 🎭 丰富的绘画风格 支持10+种专业绘画风格,一键切换: 风格类型 特点描述 🌟 默认 通用AI绘画风格 🖼️ 写实 照片级真实感 🎨 油画 经典艺术质感 🌸 水彩 清新柔和画风 ✏️ 素描 黑白线条艺术 🌈 卡通 可爱动漫风格 🔮 赛博朋克 未来科技感 🏰 奇幻 魔法幻想世界 🌅 印象派 光影色彩流动 🎭 抽象 创意抽象表达 3. 📐 灵活的尺寸选择 支持4种常用画布尺寸: 1:1 正方形 - 适合头像、图标 16:9 横屏 - 适合壁纸、横幅 9:16 竖屏 - 适合手机壁纸、海报 4:3 经典 - 传统画幅比例 演示地址: http://198.200.39.199/qianxun-ai.html 源码地址: https://wwaxq.lanzouv.com/iCscw3cl7lhc 搭建只需要把源码丢进服务器 访问http://你的域名/qianxun-ai.html即可
修复下载问题,优化中转逻辑 用户自行按照教程搭建中转即可 内置接口,上传即可发布 纯前端,所有功能在ad.js文件修改 流量主配置,积分配置,域名配置,客服配置等等 有条件的可自行更换接口,全开源程序
之前不是发过一次吗[滑稽],用户凡响挺好,但是我现在忙着别的项目了,就直接开源了吧[玫瑰],由于列表是别人的,所以也不能算纯原创,所以我后续可能自己写一个纯原的,相比于上一版,这次增加了上传图片到彩虹外联网盘和后台审核发布应用[滑稽],开源在gitee和github了 github是https://github.com/kx9007/ruange-app gitee是https://gitee.com/kx9007/soft-pavilion 欢迎各位体验和分享[哈哈],能不能给我一个简简单单的star呢[玫瑰][玫瑰][玫瑰],前几个月有老铁提前给我今年的生日祝福把我感动坏了,情人节居然来给我说提前生日快乐[真棒][真棒][真棒],太感动了
优化分类,优化加载速度,更新接口 ↓另外↓ 给大家送上千寻独家接口数据,搭建直接运行 搭建教程: 上传所有文件到服务器或者虚拟主机 所有分类请求都使用统一的 API 入口:https://你的域名/api/sjxjj?category=分类名 例如: JK分类:https://域名/api/sjxjj?category=jk 汉服分类:https://域名/api/sjxjj?category=hanfu 其他分类以此类推 演示:http://198.200.39.199/qianxun.html 接口+演示站源码:https://wwaxq.lanzouv.com/iczWc3cgcdxa
一个奇奇怪怪的源码,它可以部署为网页,也可以是AndroidAPP 环境: PHP:7.3-8.2 MYSQL:5.7 配置教程: 把前端解压到xx软件(推荐:webIDE) 后端解压到你的服务器或者主机里 config.php配置数据库 api.js配置接口 默认账号:123456 密码:xingyun ———————————— 下载链接:https://xingyun1.lanzoul.com/iqERS3cfvuif ———————————— 注:目前该项目是测试阶段,不可能因素较多,介意勿下 —————————————— 转载前提: 保留原作者版权(星云) 不可付费或会员可下载
大家在用别人api的时候应该都想过自己怎么去开发 今天晚上心血来潮,发布一个1.0版本,各位尝尝鲜 接口演示:http://198.200.39.199/api.php 配套一个网页演示:http://198.200.39.199/qianxun.html(搬运的摸鱼大佬,替换了一下自建的演示接口) 所有文件都在里面了,大家应该一看就会,视频自己添加,我的是演示,没放太多 源码:https://wwle.lanzouo.com/i2V0y3c7uktc
个人云盘系统 一个简单、美观、安全的PHP云盘系统,支持文件上传、下载、管理和直链分享。 ✨ 特性 📤 简单上传 - 支持点击上传或拖拽上传,自动生成直链 🔗 直链分享 - 每个文件自动生成唯一直链,可直接访问下载 🔐 管理员系统 - 安全的登录认证,保护文件管理功能 ⬇️ 快速下载 - 一键下载文件或通过直链直接下载 🗑️ 安全删除 - 通过删除码验证,防止误删 📊 文件管理 - 显示文件大小、上传时间、下载次数、直链 🎨 现代UI - 采用渐变色彩,简洁美观 📱 响应式设计 - 支持手机和桌面设备 🔒 安全防护 - CSRF保护、密码加密、安全验证 蓝奏云 https://xyz111.lanzoue.com/iaRUZ3c5i1uf 系统要求 • PHP 7.0 或更高版本 • MySQL 5.6 或更高版本 上传解压配置信息,点击安装即可使用 关键信息打码 求审核放过[泪]
今天教一下网站如何开通IPV6,首页你得有个支持IPV6的服务器,你家Wife也得支持IPV6要不然你设置好了访问不进去的,服务器那边还需要看一下你的Nginx支不支持IPV6 查看 Nginx 编译时是否包含 IPv6 支持 服务器终端输入 nginx -V 在输出中查找 --with-ipv6 参数,如果有则表示支持 IPv6。 如果这些都支持,恭喜你可以IPV6访问了,但是还没完你要是宝塔还得配置一下网站的配置文件 示例 listen 80; listen [::]:80; listen 443 ssl; listen [::]:443 ssl; listen 443 quic; listen [::]:443 quic; 在网站配置文件中加入IPV6的适配,这样就可以了,这你才是真·IPV6访问。 目前为止好像也就腾讯云一家支持免费开通IPV6 IP 对了对了,差点忘了,域名那边解析选择AAAA然后填入你的IPV6 IP
自己大概写了个基础样式吧,让AI美化了一下UI,可以滑动观看,和侧边栏切换接口,压缩包里我放了一个PHP视频接口,如果我发现有盗刷我流量的立马关停,我公益你刷我流量就不道德了[滑稽][滑稽][滑稽] 使用方法 上传WEB空间 宝塔或虚拟主机,虚拟主机上网一搜一大堆免费的不过多赘述。 更改app.js里的链接,替换你的域名 接口调用示例 GET/POST video.php?type=json,text,video,默认video,接口加密是有隐私数据,都是随机的视频。 演示站点:https://video.iness.eu.org/ 下载链接:https://zhcnli.lanzn.com/i1B4j3bxfeqd
基于网页版本的修改,没做太多修改,方便你们自己去修改文字版权等信息 一定要改!一定要改!一定要改! 这么直白的程序审核会不通过,自己替换文字信息过审 比如把步数改成:能量 源码包:https://wwle.lanzouo.com/iXLjV3buyaqf
✨ 核心功能 步数修改 用户输入Zepp Life账号和密码 设置想要的步数(1-98800步) 提交后通过API修改微信运动步数 双输入方式 数字输入框: 直接输入精确步数 滑动条: 拖动滑块快速选择步数 两者实时同步 API状态检测 页面加载时自动检测API是否在线 显示绿色"在线"或红色"离线"标识 智能处理JSON和纯文本响应 深色/浅色主题 🌙 月亮图标 → 切换到深色模式 ☀️ 太阳图标 → 切换到浅色模式 使用CSS变量实现主题切换 密码显示切换 👁️ 眼睛图标可切换密码可见性 保护隐私的同时方便输入确认 双标签页设计 步数更新标签: 主要功能操作区 关于工具标签: API文档说明 🔧 技术实现 前端技术: plaintext HTML5 + CSS3 + 原生JavaScript 响应式布局 CSS变量主题系统 Fetch API异步请求 无依赖框架 智能响应处理: 自动检测Content-Type 支持JSON格式响应 支持纯文本格式响应 文本中包含"成功"关键词判定为成功 🎨 UI特点 设计风格: ✅ 现代化卡片式设计 ✅ 圆角pill-shaped标签切换 ✅ 柔和的阴影效果 ✅ 平滑的过渡动画 ✅ 符合UI稳定性规范(使用阴影而非scale) 颜色方案: 浅色模式: 白色背景 + 蓝色主题 深色模式: 深灰背景 + 淡蓝主题 状态色: 绿色(成功/在线) + 红色(失败/离线) 交互反馈: 按钮悬停效果 提交时禁用防重复点击 实时步数同步显示 错误信息清晰提示 🔐 安全说明 当前实现: ⚠️ 使用GET请求传递密码(URL参数) ⚠️ 明文传输账号密码 ⚠️ API密钥硬编码在前端 适用场景: 个人使用工具 非敏感数据场景 快速部署需求 🚀 使用方式 方式一: 直接打开HTML plaintext 双击 index.html → 在浏览器中直接使用 方式二: 部署到Cloudflare Workers plaintext 登录Cloudflare账号 创建新的Worker 复制workers.js内容 部署后通过Workers域名访问 📊 工作原理 这个程序利用了Zepp Life(小米运动)与微信运动的数据同步机制: 用户在Zepp Life修改步数 Zepp Life自动同步到微信运动 微信运动显示更新后的步数 本工具通过API自动化这个过程 总的来说,这是一个功能完整、界面友好、易于使用的微信步数修改工具,适合个人快速修改微信运动步数! 🎯 源码地址:https://wwle.lanzouo.com/iFF6D3buugsj
一、引言 在人工智能飞速发展的今天,大语言模型已成为推动各行业创新变革的核心力量。DeepSeek 作为一款备受瞩目的开源大语言模型,以其出色的语言理解与生成能力,为自然语言处理领域带来了新的活力。然而,在实际应用中,出于数据隐私保护、网络稳定性以及定制化需求等多方面的考量,越来越多的用户倾向于将 DeepSeek 进行本地化部署。 本地化部署 DeepSeek,就像是在自家搭建了一个专属的智能语言助手。与依赖云端服务不同,所有的数据处理和模型运行都在本地的硬件环境中完成,这意味着数据无需上传至外部服务器,极大地降低了数据泄露的风险,满足了对数据隐私敏感场景的严格要求。同时,摆脱了对网络的依赖,在网络状况不佳甚至离线的情况下,依然能够稳定高效地运行,为用户提供即时响应,提升工作效率。此外,本地化部署还赋予用户更大的自主控制权,可以根据自身业务需求对模型进行优化和定制,使其更好地适配特定的应用场景。 本文将详细介绍如何借助工具 ollama 实现 DeepSeek 的本地化部署,从前期的环境搭建到具体的部署步骤,再到部署后的优化与常见问题解决,为大家提供一份全面且实用的攻略,帮助大家轻松开启 DeepSeek 本地化部署之旅。 二、前期准备 (一)了解核心工具 Ollama:Ollama 是一个强大的开源人工智能平台,专注于在本地高效运行大型语言模型。它允许用户在本地环境中轻松部署和管理多种大语言模型,摆脱了对云端服务的依赖 。Ollama 提供了简洁易用的命令行界面和 Web UI 可视化界面,方便用户与模型进行交互。通过 Ollama,用户可以方便地下载、切换、加载和卸载模型,还能对模型进行调优,以满足不同的应用需求。此外,Ollama 支持多种主流的开源大语言模型,为用户提供了丰富的选择。在 DeepSeek 本地化部署中,Ollama 充当了关键的部署和管理工具,大大简化了部署流程。 DeepSeek-R1:DeepSeek-R1 是深度求索公司推出的开源大语言模型系列,具备出色的语言理解与生成能力,涵盖了从 1.5B 到 671B 不同规模的模型版本。这些模型基于先进的架构和训练技术,能够处理各种自然语言处理任务,如文本生成、问答系统、文本摘要、翻译等。不同版本的 DeepSeek-R1 模型在参数量、性能和应用场景上有所差异,用户可以根据自身的硬件条件和需求选择合适的版本进行本地化部署 。 (二)硬件要求 DeepSeek-R1 模型对硬件性能有一定要求,不同版本所需的硬件配置有所不同,具体如下: 若硬件配置不足,可能导致模型无法正常运行或运行效率低下,出现启动失败、响应卡顿等问题。例如,在使用低显存的显卡运行高版本的 DeepSeek-R1 模型时,可能会因为显存不足而无法加载模型;内存不足则可能导致模型运行时频繁出现内存溢出错误,影响使用体验。 (三)软件环境 操作系统:推荐使用 Windows 10/11、macOS 12 + 或 Linux 系统。不同操作系统在部署过程中的操作步骤和命令可能会有所不同,但都可以通过 Ollama 实现 DeepSeek-R1 的本地化部署 。例如,在 Windows 系统中,用户可以通过下载安装包进行 Ollama 的安装;而在 Linux 系统中,可以使用命令行进行安装。 显卡驱动:如果使用 NVIDIA 显卡,需要安装最新版的 NVIDIA 驱动;若使用 AMD 显卡,则需安装支持 ROCm 的驱动。显卡驱动的安装对于启用 GPU 加速至关重要,它能够充分发挥显卡的性能,加速模型的运算速度。如果显卡驱动版本过旧,可能无法与 Ollama 和 DeepSeek-R1 模型兼容,导致无法使用 GPU 加速,从而使模型运行缓慢。 CUDA 工具包:通常由显卡驱动包含,Ollama 会自动利用。CUDA 是 NVIDIA 推出的一种并行计算平台和编程模型,能够利用 NVIDIA GPU 的并行计算能力加速深度学习任务。在安装 CUDA 工具包时,需要注意其版本与显卡驱动以及其他软件的兼容性。 Python:虽然不是 Ollama 运行所必需的,但在进行一些 API 调用脚本编写或其他相关操作时可能会用到。Python 是一种广泛应用于人工智能领域的编程语言,许多深度学习框架和工具都支持 Python 接口。在部署 DeepSeek-R1 模型时,可能会需要使用 Python 来进行一些配置和自定义操作。 三、安装 Ollama (一)下载 Ollama 安装包 Windows 系统:打开浏览器,访问 Ollama 官网的下载页面https://ollama.com/download ,在页面中找到 “Download for Windows” 按钮,点击即可下载 Windows 版本的安装包,通常文件名为ollamaSetup.exe。如果官网下载速度较慢,也可以前往 GitHub Releases 页面(https://github.com/ollama/ollama/releases )手动下载最新版的安装包。 macOS 系统:同样在 Ollama 官网的下载页面https://ollama.com/download ,点击 “Download for macOS” 下载适用于 macOS 的安装包,一般是一个.dmg文件。 3.下载过慢本文也提供了两种下载方式 自行选择即可 https://pan.quark.cn/s/a86e194dcd82 https://pan.baidu.com/s/18waWlPdyt2VKBg1_5RZ9Iw 提取码: 6cbu (二)安装 Ollama Windows 系统:下载完成后,双击ollamaSetup.exe安装程序,按照安装向导的提示进行操作,一般保持默认选项即可完成安装。安装过程中,系统可能会请求管理员权限,点击 “是” 允许操作。安装完成后,Ollama 会自动以服务形式在后台运行,在系统托盘可以看到一个羊驼图标,表示服务已启动。如果不想安装在默认的 C 盘位置,比如想安装到 D 盘的ollama文件夹,可以在 D 盘创建ollama文件夹,将下载的OllamaSetup.exe文件放入该文件夹,然后运行命令行,进入ollama目录(cd D:\ollama),执行命令.\OllamaSetup.exe /DIR="D:\ollama"进行安装 。 macOS 系统:双击下载的.dmg文件,将 Ollama 图标拖拽到 “应用程序” 文件夹中,即可完成安装。安装完成后,可以在 “应用程序” 中找到 Ollama 并启动。 如果下载本文提供的安装包,安装完成后会自动打开一个cmd窗口 (三)验证安装 安装完成后,需要验证 Ollama 是否安装成功。打开命令提示符(CMD)或 PowerShell(Windows 系统)、终端(macOS 和 Linux 系统),输入命令ollama --version或ollama -v ,如果显示 Ollama 的版本号,例如 “ollama version 0.5.13”,则表示安装成功。此外,还可以通过访问 Ollama 的 Web 界面来验证,在浏览器中输入http://localhost:11434 ,如果能看到 Ollama 的运行状态页面,也说明安装和启动正常。 (四)修改模型存储位置 Ollama 默认会将下载的模型存储在操作系统的特定目录中,不同系统的默认存储位置如下: Windows 系统:C:\Users\用户名.ollama\models ,其中 “用户名” 是当前登录的 Windows 用户账户名,该文件夹默认隐藏,需在文件资源管理器中输入完整路径访问,或开启 “显示隐藏的项目” 才能看到。 macOS 系统:~/.ollama/models ,“~” 表示用户主目录(如/Users/用户名 ),该目录是隐藏文件夹,需在文件管理器中启用 “显示隐藏文件” 才能查看。 Linux 系统:/usr/share/ollama/.ollama/models 。 如果默认存储位置的磁盘空间不足,或者希望将模型存储在其他位置,可以通过设置环境变量来修改模型存储路径。具体方法如下: Windows 系统:按WIN+R组合键,输入sysdm.cpl,打开 “系统属性” 窗口,点击 “高级” 选项卡,然后点击 “环境变量” 按钮。在 “用户变量” 或 “系统变量” 中点击 “新建”,变量名输入OLLAMA_MODELS,变量值输入想要设置的存储路径,如D:\data\ollama\models ,点击 “确定” 保存设置。也可以在 PowerShell 中执行命令[System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\自定义路径", "User")来设置 。设置完成后,需要重启 Ollama 服务,找到 Ollama 安装目录,双击ollama app.exe即可。 macOS 和 Linux 系统:使用文本编辑器打开环境变量配置文件,如~/.bashrc(bash shell)或~/.zshrc(zsh shell) ,在文件末尾添加export OLLAMA_MODELS="/自定义/路径" ,例如export OLLAMA_MODELS="/data/ollama/models" 。保存文件后,在终端中执行source ~/.bashrc或source ~/.zshrc使设置生效。如果 Ollama 正在运行,需要先停止服务(ollama serve stop),然后重新启动(ollama serve) 。 修改存储路径后,若之前已经下载过模型,可以将原来默认位置中的models目录移动到新设置的路径下,Ollama 会自动识别新路径下的模型 。 四、下载并运行 DeepSeek-R1 模型 (一)选择模型版本 打开 Ollama 模型库:打开命令提示符(CMD)或 PowerShell(Windows 系统)、终端(macOS 和 Linux 系统),输入命令ollama list ,可查看 Ollama 中已有的模型列表;若要查看更多模型信息,可访问 Ollama 官网的模型库页面https://ollama.com/library 。 . 搜索 DeepSeek-R1 模型:在命令行中输入ollama search deepseek-r1 ,可搜索到 DeepSeek-R1 相关模型版本;在官网模型库页面的搜索框中输入 “deepseek-r1”,也能筛选出 DeepSeek-R1 模型版本。 . 根据硬件选择版本:根据之前准备工作中了解的硬件配置情况,选择合适的 DeepSeek-R1 模型版本。例如,如果硬件配置较低,只有 4GB 显存的 GPU 和 8GB 内存,可选择 1.5B 版本;若拥有 RTX 3060(8GB 显存)及以上显卡和 16GB 内存,可考虑 7B 或 8B 版本 。 (二)下载并启动模型 下载模型命令:确定好模型版本后,使用ollama run命令下载并启动模型。例如,要下载并启动 1.5B 版本的 DeepSeek-R1 模型,在命令行中输入ollama run deepseek-r1:1.5b ;若要下载 7B 版本,则输入ollama run deepseek-r1:7b 。 . 首次运行注意事项:首次运行上述命令时,Ollama 会自动从官方源下载对应版本的 DeepSeek-R1 模型。模型下载时间可能较长,取决于模型大小和网络速度,比如 7B 版本的模型文件大小约为 5 - 30GB,在网络状况一般的情况下,可能需要数小时才能下载完成,需耐心等待。下载过程中,请确保网络连接稳定,避免因网络中断导致下载失败。若下载过程中出现网络问题导致下载中断,可以使用ollama pull deepseek-r1:对应版本命令续传 ,例如ollama pull deepseek-r1:7b 。此外,若在中国大陆地区下载时遇到网络访问困难,可尝试配置代理或更换镜像源来加速下载 。 五、总结 通过本文详细的介绍,我们完成了借助 Ollama 实现 DeepSeek-R1 模型本地化部署的全过程。从前期对 Ollama 和 DeepSeek-R1 模型的了解,到硬件和软件环境的准备,再到 Ollama 的安装、模型的下载与运行,以及可视化界面的配置、性能优化技巧、常见问题解决和后续升级维护等各个环节,每一步都为大家提供了具体的操作方法和注意事项 。 本地化部署 DeepSeek-R1 模型,让我们在享受大语言模型强大功能的同时,更好地掌控数据隐私和模型运行环境,为各种自然语言处理任务提供了可靠的支持 。希望读者们能够根据本文的指导,顺利完成 DeepSeek-R1 模型的本地化部署,并在实际应用中不断探索其更多的可能性,将其应用于如智能客服、文本创作、数据分析等更多领域,为工作和生活带来更多的便利与创新 。如果你在部署过程中遇到任何问题,欢迎参考本文的常见问题解决部分,或者在相关技术社区寻求帮助 。让我们一起在人工智能的领域中不断探索前行 。
每天发现网络新鲜事