目标检测标注生成
我想要做一个能够很方便地用于目标检测的数据集,目前是调用了Qwen2.5 VL的API来进行一个检测,能够对每张图片输出零个,一个或者多个json格式的检测框,我想要保存成标准的YOLO或者COCO格式,方便之后使用YOLO或者其他算法进行目标检测,你有什么建议吗 结合你的需求,以下是构建YOLO/COCO格式数据集的系统化建议(附代码框架和注意事项): 一、核心步骤建议 统一数据目录结构(参考) 12345678910dataset/├── images/│ ├── train/ # 训练集图片│ └── val/ # 验证集图片├── labels_yolo/ # YOLO格式标签│ ├── train/│ └── val/└── annotations/ # COCO格式json ├── train.json └── val.json 类别映射文件(必须)创建classes.txt,每行一个类别: 123personcardog YOLO...
调用Qwen API进行标注
Qwen2.5有一个CookBookhttps://zhuanlan.zhihu.com/p/21417326672Qwen2.5 Cookbooks都干了点啥:computer_use.ipynb: spatial_understanding.ipynb: 检测特定类型的物体 检测某一个物体 某一个物体的一个中心点 推理能力(比如检测出一个狐狸的影子) 理解不同实体之间的关系(框出见义勇为的人) 找出具有特定材质,位置和用途的物品 使用Qwen2.5描框的能力帮助数数和其他运算 Qwen可能的一些坑
轻松做好周总结:PDCA 循环 + Obsidian 自动化工作流
零: 来源 每周用 10 分钟完成深度复盘?这套基于 PDCA 循环的 Obsidian 周总结工作流,通过 dataview 脚本自动聚合日记中的 GDG 思考和待办数据,生成可视化周报后自动归档原始日记。告别 3650 个散落文件,用自动化实现知识沉淀,让每周成长清晰可见。 https://mp.weixin.qq.com/s/VuuMaA73jeNYHaD-X1toCw
硕士毕设-语义分割-4-通过grounding-sam生成效果很好的pesudo
零: 项目说明是这样的一个事情,经过与deepseek的一番讨论和交流,DeepSeek为我设计了一个30天高强度学习计划,重点聚焦弱监督/无监督语义分割在野外场景的应用,结合理论与实践,并最终导向可落地的开源项目。 主要想法是做基于大模型的弱监督语义分割,主要步骤如下: 自动生成标注:大模型生成图像级标签,边框,涂鸦、点标注等几种弱监督标注类型的标注: 生成伪标签:采用基于类激活图(CAM, Class Activation Mapping)的方法 + CRF后处理,利用分类网络生成伪标签pseudo 训练分割模型:将伪标签作为监督信号,训练U-Net、DeepLabv3+等分割网络。 代码在这里:不断改进中:https://github.com/Tipriest/30Days-for-segmentation 一: 使用grounding-dino model标注地形所在的范围框1.1...
博客图片管理方案: GitHub仓库 + PicGo + CDN加速
我的问题:我目前用github page + hexo搭建了一个个人的博客框架,本地用Obsidian来写blog,我保存图片最好用什么呢,是用github的仓库还是图床,我需要稳定便捷,我平时主要在Windows和Linux上来写Blog,因此需要具有这两个平台的兼容性 跨平台图片管理方案(Windows + Linux)为满足Windows和Linux双平台兼容性,同时保证稳定性和操作便捷性,推荐以下方案: 核心方案:GitHub仓库 + PicGo + CDN加速1. 创建GitHub图片专用仓库 新建一个GitHub仓库(如blog-images),建议设为公开以使用免费CDN。 优势:数据完全自主控制,无存储容量限制(适合个人图片存储)。 2. 使用PicGo跨平台上传工具 工具选择: PicGo的 官方文档 PicGo的 下载地址 下载并安装PicGo: 配置GitHub图床: 生成GitHub Token(需repo权限)。 打开安装的.AppImage文件,Linux可以使用disown实现前后端分离 初始化配置: ...
预计学习的书
作者:Sgapptii链接:https://www.zhihu.com/question/447064746/answer/3204309014来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 先看书并复现书上的代码。然后看顶会顶刊,并复现对应的代码。我是从研0暑假开始学机器学习、深度学习,基础理论差不多研一上学期结束时学完。我寒假开始看论文,最先看的是ViT, YOLOv3, DETR, ConvLSTM,并复现代码。后面下学期开学,专门看语义分割、显著性检测、自监督学习的顶会,研二上结束,精读了有六七十篇,并尽力复现每一篇的代码,成功复现80%已读顶会的代码。我的具体学习路线,可供参考。 机器学习,看《机器学习实战》Peter Harrington著,并复现书中代码。 机器学习,看《机器学习实战》Peter...
预计学习的课程
深蓝学院: 深度强化学习https://www.zhihu.com/people/tsesea 《Deep Reinforcement Learning》 由史蒂文斯理工学院Shusen Wang博士主讲,课程通过生动有趣的例子,以简洁有力的语言(央视播音员水平),讲解强化学习的基本概念以及算法原理。通过学习本课程,初学者能在短时间内大体了解强化学习的大致体系,梳理开启自己的学习之旅。优势之处在于抛弃繁文缛节的数学严谨性,课程直接告诉你容易理解的结论。 作者:Tsesea链接:https://www.zhihu.com/question/653996087/answer/3503514747来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 《Reinforcement Learning for Sequential Decision and Optimal...
硕士毕设-语义分割-3-实现了不错的Open Vocabulary Label效果 & 使用fiftyone查看数据集gt和预测值
零: 项目说明是这样的一个事情,经过与deepseek的一番讨论和交流,DeepSeek为我设计了一个30天高强度学习计划,重点聚焦弱监督/无监督语义分割在野外场景的应用,结合理论与实践,并最终导向可落地的开源项目。 主要想法是做基于大模型的弱监督语义分割,主要步骤如下: 自动生成标注:大模型生成图像级标签,边框,涂鸦、点标注等几种弱监督标注类型的标注: 生成伪标签:采用基于类激活图(CAM, Class Activation Mapping)的方法 + CRF后处理,利用分类网络生成伪标签pseudo 训练分割模型:将伪标签作为监督信号,训练U-Net、DeepLabv3+等分割网络。 代码在这里:不断改进中:https://github.com/Tipriest/30Days-for-segmentation 参考引用https://blog.csdn.net/xs1997/article/details/145642622 一:...
硕士毕设-语义分割-2-使用CoT进行Open Vocabulary Label&简单实现类激活图
零: 项目说明是这样的一个事情,经过与deepseek的一番讨论和交流,DeepSeek为我设计了一个30天高强度学习计划,重点聚焦弱监督/无监督语义分割在野外场景的应用,结合理论与实践,并最终导向可落地的开源项目。 主要想法是做基于大模型的弱监督语义分割,主要步骤如下: 自动生成标注:大模型生成 图像级标签,边框,涂鸦、点标注等几种弱监督标注类型的标注: 生成伪标签:采用基于 类激活图(CAM, Class Activation Mapping)的方法 + CRF后处理,利用分类网络生成伪标签pseudo 训练分割模型:将伪标签作为监督信号,训练 U-Net、DeepLabv3+等分割网络。 代码在这里:不断改进中:https://github.com/Tipriest/30Days-for-segmentation 参考引用https://zhuanlan.zhihu.com/p/29567314 一: 采用思维链Cot优化大模型的image label效果在上一篇文章中,主要采用了直接通过 CLIP模型+阈值判断的方法和通过...
硕士毕设-语义分割-1-简单实现Open Vocabulary Label但是效果不好
零: 项目说明是这样的一个事情,经过与deepseek的一番讨论和交流,DeepSeek为我设计了一个30天高强度学习计划,重点聚焦弱监督/无监督语义分割在野外场景的应用,结合理论与实践,并最终导向可落地的开源项目。 主要想法是做基于大模型的弱监督语义分割,主要步骤如下: 自动生成标注:大模型生成 图像级标签,边框,涂鸦、点标注等几种弱监督标注类型的标注: 生成伪标签:采用基于 类激活图(CAM, Class Activation Mapping)的方法 + CRF后处理,利用分类网络生成伪标签pseudo 训练分割模型:将伪标签作为监督信号,训练 U-Net、DeepLabv3+等分割网络。 代码在这里:不断改进中:https://github.com/Tipriest/30Days-for-segmentation 一:...