我做了一个沉浸式AI单词学习助手
我做了一个沉浸式AI单词学习助手 最近完成了一个完整的全栈项目,名字叫 AI Vocab Coach。 核心目标是把单词记忆这件事,从枯燥的背词表变成一套沉浸式学习流:导入词库 → SM-2间隔复习 → 选择题/拼写练习 → 番茄钟专注 → 日历打卡 → AI答疑 主要功能模块: 多词库单词记忆 — 支持 CET4/6 等词库导入,SM-2 复习算法,认识/模糊/不认识三档评分,选择+拼写两种练习模式 词库隔离管理 — 每个词库的学习/练习/统计数据独立计算,切换词库互不干扰 番茄钟专注 — 自定义时长、关联学习任务、白噪音背景(雨声/森林) 日历打卡 — 每日学习行为自动打卡,连续天数统计 数据看板 — Dashboard 卡片 + ECharts 近7天趋势图 AI 答疑 — 流式对话、每日激励语、单词记忆技巧生成 技术栈是 FastAPI + Vue3 Composition API + Tailwind CSS + Pinia + SQLite,前后端分离,一键启动脚本 python run.py。 AI 配置方面做了隐私保护:API Key 加密传输到后端本地文件,...
我做了一个仓库到Agent上下文的编译器 repo2skill
我做了一个仓库到Agent上下文的编译器 repo2skill 最近发布了一个自己长期打磨的项目,repo2skill。 解决的问题很具体:你拿到一个陌生 GitHub 仓库,Coding Agent 不知道从哪看起、该跑什么命令、哪些测试可信、哪些目录不能乱改。repo2skill 做的事就是把陌生仓库编译成 Agent 可以直接消费的 onboarding 上下文。 一条命令: npx repo2skill https://github.com/owner/repo 输出六份产物:repo2skill.json、project-map.md、AGENTS.md、SKILL.md、quickstart.windows.md / macos.md / linux.md,外加一份可视化 HTML 报告。 核心设计原则: 证据优先 — 包管理器、scripts、入口点、环境变量全部从配置文件提取,不靠 LLM 脑补 置信度分级 — 每一条结论绑定来源文件和置信度(高/中/低),低置信度默认隐藏 同源输出 — 所有文件从同一个 repo2skill.json 导出,不会各说各话 四层...
我做了一个三阶段AI面试机器人
我做了一个三阶段AI面试机器人 最近做了一个三阶段 AI 面试系统,名字叫 AI Interview Bot。 它模拟真实招聘中的三轮面试流程,3 个 Agent 分工协作,每个 Agent 使用独立的 API 配置(Key / Base URL / Model 完全隔离): HR 初面 — 行为问题、动机、团队契合度 综合面试 — 专业技术 + 压力测试,深挖项目和工程能力 评审总结 — 结构化评审,按 JSON Schema 输出评分和录用建议 几个设计要点: 门禁逻辑 — API 未验证通过,不能进入下一步;岗位信息未填完整,不能进入对话面试 逐题问答 — 一次一个问题,不会一次性丢出所有题目,模拟真实面试节奏 简历上传解析 — 支持 PDF / DOCX / TXT,自动提取候选人背景填入表单 三页面结构 — API配置 → 岗位与候选人信息 → 对话面试(左右分栏,左侧题目/右侧回答) 前端用 Gradio 搭建,后端 Python + OpenAI 兼容 API。每个 Agent 的提示词都有独立文件,方便单独调优面试风格。 仓库地址:https://gith...
我做了一个AI全自动知识学习网站生成器
我做了一个AI全自动知识学习网站生成器 最近完成了一个一直想做的项目,名字是 Knowledge Site Creator。 一句话说清楚:输入"量子力学"“进化心理学”"Python进阶"这样的主题,AI 全自动生成一个包含闪卡、渐进学习、自测、索引、进度追踪的完整学习网站,并支持 PDF 导出。 整个流程是这样的:输入主题 → AI分析领域 → AI创作知识点 → AI生成首页文案 → 渲染6个页面 → 一键预览 几个关键设计: 领域智能识别 — 自动识别编程/历史/科学/语言/通用五大领域,注入对应扩展字段(代码示例/时间轴/公式/词源) 难度自动分层 — 每个知识点按入门(30%)、进阶(40%)、高级(30%)分布 5种学习模式 — 闪卡键盘翻页、渐进学习、4选1自测、搜索索引、SVG环形进度 几何大胆风设计 — 零圆角、4px黑边框、偏移阴影、品红强调色,纯原生 HTML/CSS/JS 零依赖 PDF 导出 — 浏览器原生打印,不拖第三方库 技术栈是 Express 后端 + 原生前端,零框架依赖,前端体积极小,支持 PWA...
我做了一个猫Meme风格作文生成器
我做了一个猫Meme风格作文生成器 最近整理了一个会长期维护的小工具,名字叫 Cat-Meme 作文生成器。 目标很简单:输入任意主题词,AI 生成一段抖音/B站风格的猫meme作文文案。 它的核心逻辑就三层: 意象开场 — 用具体事物(镜子、表、月亮、蝉鸣)切入话题,制造共鸣 哲理反转 — 通过"不是…而是…"“后来才明白…”"原来…才…"制造情绪转折 金句收尾 — 押韵 + 正能量,150-200 字恰到好处 目前收录了 60 篇原创范例作为风格参考,覆盖暗恋、自卑、成长、遗憾、独处等主题。每条文案控制在 15 字以内的短句节奏,专供短视频配音和社交文案场景。 使用方式也很简单,配置成 Claude Code Skill 即可:/猫meme 暗恋,一键出稿。 仓库地址:https://github.com/haodehaode378/cat-meme-generator 如果你有好的猫meme文案想收录,欢迎直接提 PR。你在评论区丢一个主题,我现场生成给你看效果。
LeetCode 1. 两数之和
1. 两数之和 难度:简单 题目 给定一个整数数组 nums 和一个整数目标值 target,请你在该数组中找出 和为目标值 target 的那 两个 整数,并返回它们的数组下标。 你可以假设每种输入只会对应一个答案,并且你不能使用两次相同的元素。你可以按任意顺序返回答案。 示例 示例 1: 输入:nums = [2,7,11,15], target = 9输出:[0,1]解释:因为 nums[0] + nums[1] == 9 ,返回 [0, 1] 。 示例 2: 输入:nums = [3,2,4], target = 6输出:[1,2] 示例 3: 输入:nums = [3,3], target = 6输出:[0,1] 提示 2 <= nums.length <= 10^4 -10^9 <= nums[i] <= 10^9 -10^9 <= target <= 10^9 只会存在一个有效答案 进阶 你可以想出一个时间复杂度小于 O(n²) 的算法吗? 解法一:暴力枚举 class Solution: def twoSum(sel...
LeetCode 49. 字母异位词分组
49. 字母异位词分组 难度 中等 题目描述 给你一个字符串数组,请你将 字母异位词 组合在一起。可以按任意顺序返回结果列表。 示例 1 输入: strs = ["eat", "tea", "tan", "ate", "nat", "bat"] 输出: [["bat"], ["nat", "tan"], ["ate", "eat", "tea"]] 解释: 在 strs 中没有字符串可以通过重新排列来形成 "bat"。 字符串 "nat" 和 "tan" 是字母异位词,因为它们可以重新排列以形成彼此。 字符串 "ate"、"eat" 和 "tea" 是字母异位词,因为它们可以重新排列以形成彼此。 示例 2 输入: strs...
我做了一个论文阅读提速工具 AI Paper Coach
我做了一个论文阅读提速工具 AI Paper Coach 最近我把一个会长期维护的项目整理出来了,名字是 AI Paper Coach。 目标很直接,把论文阅读从零散笔记变成结构化流程。 导入论文 -> 结构化分析 -> 七问拆解 -> 复现指导 -> 导出报告 最近这轮主要补了几个关键点: 标题识别增强,支持 arXiv API 兜底 finalize 阶段可观测,记录耗时、重试、repair 触发 复现指导空内容兜底修复 按学科自适应生成复现指导,不再只按代码论文模板写 它做的事是: 输入 arXiv 或 PDF 链接,或者直接上传 PDF 生成结构化分析,不只是摘要 用“七问框架”把论文核心逻辑拆清楚 输出复现指导,覆盖环境、数据、步骤、风险点 全流程可追踪,支持 trace、历史记录和导出 这轮重点修了几个实际问题: finalize 偏慢,增加每次模型调用耗时、重试次数、repair 触发标记 标题占位问题,新增多源标题兜底,减少“论文中未明确说明” 复现指导空白问题,补了 finalize/review 合并兜底 学科自适应,非代码论...
AI前沿论文深度解读 | 2026年04月07日
AI前沿论文深度解读 | 2026-04-07 Daily-Omni:多模态大模型,真的会“同时看懂画面和声音”吗? 日期:2026年04月07日 适合读者:本科生、研究生、AI 从业者、多模态方向学习者 阅读时间:约 10 分钟 难度等级:中等 一、为什么这篇论文值得看? 这篇论文讨论的不是“怎么把模型做得更大”,而是一个更尖锐的问题: 很多多模态大模型看图很强、听音频也不差,但它们未必真的能把某一时刻的声音和某一时刻的画面对上。 比如一个视频里,门突然被关上,画面上是一个人伸手拉门,音频里是“砰”的一声。人类会自然把这两个事件对齐,知道这是同一个动作的视觉和声音表现。但对模型来说,这件事并不简单。 论文《Daily-Omni: Towards Audio-Visual Reasoning with Temporal Alignment across Modalities》正是围绕这个问题展开。作者提出了一个新的音视频问答 benchmark,用来测试模型是否具备真正的跨模态时间对齐推理能力。 二、论文到底在做什么? 2.1 核心目标 作者想解决的问题可以概括为一句话: 现...
AI前沿论文深度解读 | 2026年03月28日
AI前沿论文深度解读 #5 | Mamba:颠覆Transformer的线性时间序列建模架构 📅 2026-03-30 | 🏷️ 模型架构 · 状态空间模型 · 长序列建模 · 线性注意力 📄 核心论文:Gu & Dao, “Mamba: Linear-Time Sequence Modeling with Selective State Spaces” (ICML 2024) 🔗 延伸论文:S4 (2021) · S5 (2022) · H3 (2023) · Mamba-2 (2024) · Vision Mamba (2024) 📚 本博客面向本科生,深入浅出地解读最新AI论文,帮助你真正理解人工智能的前沿动态。 🔬 目标:不仅了解"是什么",更要理解"为什么"和"怎么做" ⏰ 生成时间:2026-03-30 10:15 🤖 Powered by:OpenClaw + PyTorch + Feishu Doc 目录 AI 领域全景扫描 论文深度剖析 动手实践指南 拓展学习资源 总结与思考...
