Show HN: 描述什么样的照片算“差”,并让本地的大型语言模型(LLM)来标记它们-879757

Show HN: 描述什么样的照片算“差”,并让本地的大型语言模型(LLM)来标记它们-879757

用大模型帮你“挑废片”:一个开源 macOS 应用让本地 LLM 成为你的照片评审员

在智能手机和数码相机普及的今天,我们的苹果照片(Apple Photos)图库里往往躺着成千上万张“废片”——模糊的夜景、失焦的抓拍、重复的截图。手动筛选这些照片是一件耗时且主观的事情。一款名为 BadPhotosOut 的原生 macOS 应用,提供了一种全新解决方案:让本地运行的大语言模型(LLM),根据你输入的任意文字标准,来自动判断并标记照片的“好坏”。更重要的是,所有操作都在本地完成,照片无需上传到云端,这为注重隐私的用户提供了一个理想的工具。

项目作者在 GitHub 上表示,这款应用“完全是靠感觉编程的(vibe-coded)”。它不提供一键删除功能,而是让用户在手动审查后再决定是否删除,这极大降低了误删风险。该应用面向两个人群:一是那些图库混乱、希望高效清理的普通用户;二是对本地 AI 和隐私保护有极高要求的开发者或技术爱好者。

本地运行、隐私优先:BadPhotosOut 如何工作

BadPhotosOut 的运行依赖 Ollama,一个可以在本地 macOS 上轻松部署大语言模型的工具。用户需要先通过 Homebrew 安装 Ollama 并拉取一个视觉模型,例如 gemma4:e4b,然后启动本地服务。

使用时,用户在应用中输入描述“差照片”的标准——比如“模糊、曝光不足或意外拍摄”。接着选择扫描范围,例如最近N天、特定相册或整个图库。点击“开始分析”后,照片会流式显示在网格中,并附带颜色标签:绿色代表符合标准(好照片),红色标记为“差照片”,黄色代表分析失败。点击任何照片,可以查看大图以及模型给出的判断理由。

该应用的核心价值在于其“本地化”和“自定义标准”。所有照片通过苹果的 PhotoKit 框架读取,数据仅发送给本地运行的 Ollama 服务器, 不经过任何第三方。这与依赖云端 AI 的图片管理工具(如 Google Photos 的自动分类)形成鲜明对比,满足了那些对数据外传极度敏感的用户的刚需。

隐私与便利之间的平衡:值得一试的开源方案

BadPhotosOut 的设置比想象中简单:用户只需安装 Ollama、拉取模型,然后通过 Xcode 开源代码本地编译生成应用。项目自带 xcodegen 配置文件,一行命令即可生成 Xcode 项目,大大降低了上手门槛。首次运行 macOS 会要求授予照片访问权限,之后即可使用。

值得一提的是,该应用将分析结果缓存到本地 JSON 文件(路径位于 ~/Library/Containers/...),重复分析相同照片时速度极快。但作者也坦诚地贴出免责声明:“本应用是凭感觉编码的,不对正确性、性能或你的照片库负责。用户必须自行承担风险。” 这既是对开源社区诚实的交代,也提醒用户应将 AI 的判断视为辅助参考,而非绝对真理。

从行业角度看,BadPhotosOut 代表了一类新兴趋势:利用本地运行的开源大模型,赋能日常软件中的“主观”任务。它不追求云端服务的“智能化”捷径,而是通过本地推理和用户自定义标准,将决策权完全交还给用户。对于所有渴望在隐私与效率间找到平衡点的苹果生态用户来说,这是一个值得尝试的新思路。

可以说,BadPhotosOut 不仅仅是一个照片清理工具,更是本地 AI 能力下沉到个人数字资产管理的生动案例。随着 Ollama 等工具的成熟,“让每个人电脑里的 AI 模型帮自己干活”正从幻想走向现实。

celebrityanime
celebrityanime
文章: 869

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注