Meta「分割一切」超进化版来了!检测、分割、生成一切,狂揽2k星

879f53444ce12891c416e5658347c5ac.png

编|桃子 好困
源|新智元

Meta的SAM「分割一切」模型刚发布,国内团队就进行了二创,打造了一个最强的零样本视觉应用Grounded-SAM,不仅能分割一切,还能检测一切,生成一切。

Meta的「分割一切」模型横空出世后,已经让圈内人惊呼CV不存在了。

就在SAM发布后一天,国内团队在此基础上搞出了一个进化版本「Grounded-SAM」。

7913a2027546bc15ab5372cabaf3c919.png
▲注:项目的logo是团队用Midjourney花了一个小时做的

Grounded-SAM把SAM和BLIP、Stable Diffusion集成在一起,将图片「分割」、「检测」和「生成」三种能力合一,成为最强Zero-Shot视觉应用。

网友纷纷表示,太卷了!

935adac55fbeee9e76a9762058f66e2c.png

谷歌大脑的研究科学家、滑铁卢大学计算机科学助理教授Wenhu Chen表示「这也太快了」。

9f8a01059849a3ab277799c545ccf689.png

AI大佬沈向洋也向大家推荐了这一最新项目:

Grounded-Segment-Anything:自动检测、分割和生成任何有图像和文本输入的东西。边缘分割可以进一步改进。

057c1cd1f0af7616e0faf69a4acd2692.png

截至目前,这个项目在GitHub上已经狂揽2k星。

c23041c9454def927f8d7285f6f7ad0d.png

检测一切,分割一切,生成一切

上周,SAM的发布让CV迎来了GPT-3时刻。甚至,Meta AI声称这是史上首个图像分割基础模型。

该模型可以在统一的框架prompt encoder内,指定一个点、一个边界框、一句话,直接一键分割出任何物体。

d23f74ce0d52f78177e138adbfd8c9df.gif

SAM具有广泛的通用性,即具有了零样本迁移的能力,足以涵盖各种用例,不需要额外训练,就可以开箱即用地用于新的图像领域,无论是水下照片,还是细胞显微镜。

50ff68323ca246b54cdf595497b52ffa.gif

由此可见,SAM可以说是强到发指。

而现在,国内研究者基于这个模型想到了新的点子,将强大的零样本目标检测器Grounding DINO与之结合,便能通过文本输入,检测和分割一切。

借助Grounding DINO强大的零样本检测能力,Grounded SAM可以通过文本描述就可以找到图片中的任意物体,然后通过SAM强大的分割能力,细粒度的分割出mas。

最后,还可以利用Stable Diffusion对分割出来的区域做可控的文图生成。

0bd5e2ab85c20246a64f6baeb60fa9a3.png

再Grounded-SAM具体实践中,研究者将Segment-Anything与3个强大的零样本模型相结合,构建了一个自动标注系统的流程,并展示出非常非常令人印象深刻的结果!

这一项目结合了以下模型:

  • BLIP:强大的图像标注模型

  • Grounding DINO:最先进的零样本检测器

  • Segment-Anything:强大的零样本分割模型

  • Stable-Diffusion:出色的生成模型

所有的模型既可以组合使用,也可以独立使用。组建出强大的视觉工作流模型。整个工作流拥有了检测一切,分割一切,生成一切的能力。

该系统的功能包括:

BLIP+Grounded-SAM=自动标注器

使用BLIP模型生成标题,提取标签,并使用Ground-SAM生成框和掩码:

  • 半自动标注系统:检测输入的文本,并提供精确的框标注和掩码标注。

3407dcd511a5361e3f6964ea5cbd5613.png
  • 全自动标注系统:

首先使用BLIP模型为输入图像生成可靠的标注,然后让Grounding DINO检测标注中的实体,接着使用SAM在其框提示上进行实例分割。

3df02e6ec0b5c0b4959834a0a1e51f21.png

Stable Diffusion+Grounded-SAM=数据工厂

  • 用作数据工厂生成新数据:可以使用扩散修复模型根据掩码生成新数据。

bfaf812359161d1973eaa860640ffa7f.png

Segment Anything+HumanEditing

在这个分支中,作者使用Segment Anything来编辑人的头发/面部。

  • SAM+头发编辑

8c8c89bfd978bd0dc123c464ca1f6842.png 6c16fc81f61d6657374e94084c536f3f.png
  • SAM+时尚编辑

3e6867319afba877a7afadc63bb87b89.png

521720bfad575dd849bf615547396ca8.gif

作者对于Grounded-SAM模型提出了一些未来可能的研究方向:

自动生成图像以构建新的数据集;分割预训练的更强大的基础模型;与(Chat-)GPT模型的合作;一个完整的管道,用于自动标注图像(包括边界框和掩码),并生成新图像。

作者介绍

Grounded-SAM项目其中的一位研究者是清华大学计算机系的三年级博士生刘世隆。

他近日在GitHub上介绍了自己和团队一起做出的最新项目,并称目前还在完善中。

af58242cbf715d8e297171db2bcfcfe3.png

现在,刘世隆是粤港澳大湾区数字经济研究院(IDEA研究院),计算机视觉与机器人研究中心的实习生,由张磊教授指导,主要研究方向为目标检测,多模态学习。

在此之前,他于2020年获得了清华大学工业工程系的学士学位,并于2019年在旷视实习过一段时间。

5d78555f0e0eb52aa2634aed11eb100a.png

个人主页:http://www.lsl.zone/

顺便提一句,刘世隆也是今年3月份发布的目标检测模型Grounding DINO的一作。

此外,他的4篇论文中了CVPR 2023,2篇论文被ICLR 2023接收,1篇论文被AAAI 2023接收。

850cc0d9edd81ca5996e407e4fb64a9c.png

论文地址:
https://arxiv.org/pdf/2303.05499.pdf

而刘世隆提到的那位大佬——任天和,目前在IDEA研究院担任计算机视觉算法工程师,也由张磊教授指导,主要研究方向为目标检测和多模态。

f4807b77649f93c4fb52a0ecfc24b1ff.png

此外,项目的合作者还有,中国科学院大学博士三年级学生黎昆昌,主要研究方向为视频理解和多模态学习;IDEA研究院计算机视觉与机器人研究中心实习生曹赫,主要研究方向为生成模型;以及阿里云高级算法工程师陈佳禹。

23aba7045cbabf315550edef12bb4e0d.png
▲任天和、刘世隆

安装运行

项目需要安装python 3.8及以上版本,pytorch 1.7及以上版本和torchvision 0.8及以上版本。此外,作者强烈建议安装支持CUDA的PyTorch和TorchVision。

安装Segment Anything:

python -m pip install -e segment_anything

安装GroundingDINO:

python -m pip install -e GroundingDINO

安装diffusers:

pip install --upgrade diffusers[torch]

安装掩码后处理、以COCO格式保存掩码、example notebook和以ONNX格式导出模型所需的可选依赖。同时,项目还需要jupyter来运行example notebook。

pip install opencv-python pycocotools matplotlib onnxruntime onnx ipykernel

Grounding DINO演示

下载groundingdino检查点:

cd Grounded-Segment-Anything
wget https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth

运行demo:

export CUDA_VISIBLE_DEVICES=0
python grounding_dino_demo.py \--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \--grounded_checkpoint groundingdino_swint_ogc.pth \--input_image assets/demo1.jpg \--output_dir "outputs" \--box_threshold 0.3 \--text_threshold 0.25 \--text_prompt "bear" \--device "cuda"

模型预测可视化将保存在output_dir中,如下所示:

82b15a797bb238e86fd4e02d895e1451.png

Grounded-Segment-Anything+BLIP演示

自动生成伪标签很简单:

  1. 使用BLIP(或其他标注模型)来生成一个标注。

  2. 从标注中提取标签,并使用ChatGPT来处理潜在的复杂句子。

  3. 使用Grounded-Segment-Anything来生成框和掩码。

export CUDA_VISIBLE_DEVICES=0
python automatic_label_demo.py \--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \--grounded_checkpoint groundingdino_swint_ogc.pth \--sam_checkpoint sam_vit_h_4b8939.pth \--input_image assets/demo3.jpg \--output_dir "outputs" \--openai_key your_openai_key \--box_threshold 0.25 \--text_threshold 0.2 \--iou_threshold 0.5 \--device "cuda"

伪标签和模型预测可视化将保存在output_dir中,如下所示:

dabbe1a38d2e0804713478851df993c3.png

Grounded-Segment-Anything+Inpainting演示

CUDA_VISIBLE_DEVICES=0
python grounded_sam_inpainting_demo.py \--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \--grounded_checkpoint groundingdino_swint_ogc.pth \--sam_checkpoint sam_vit_h_4b8939.pth \--input_image assets/inpaint_demo.jpg \--output_dir "outputs" \--box_threshold 0.3 \--text_threshold 0.25 \--det_prompt "bench" \--inpaint_prompt "A sofa, high quality, detailed" \--device "cuda"

Grounded-Segment-Anything+Inpainting Gradio APP

python gradio_app.py

作者在此提供了可视化网页,可以更方便的尝试各种例子。

70fa4b0419021b469c982a3de62c2199.png

网友评论

对于这个项目logo,还有个深层的含义:

一只坐在地上的马赛克风格的熊。坐在地面上是因为ground有地面的含义,然后分割后的图片可以认为是一种马赛克风格,而且马塞克谐音mask,之所以用熊作为logo主体,是因为作者主要示例的图片是熊。

599a3a76e853e3fd75694e3076ed999a.png

看到Grounded-SAM后,网友表示,知道要来,但没想到来的这么快。

bf3d8d061e50be6515b5df1b8c66806e.png

项目作者任天和称,「我们用的Zero-Shot检测器是目前来说最好的。」

70da92f48e0fb9bd971af991627d088e.png

未来,还会有web demo上线。

84dcc84ec44e2a3cbd8fdcb04eb35345.png

最后,作者表示,这个项目未来还可以基于生成模型做更多的拓展应用,例如多领域精细化编辑、高质量可信的数据工厂的构建等等。欢迎各个领域的人多多参与。

e2f6bdbf3bae605612b64dfca10411ea.jpeg后台回复关键词【入群

加入卖萌屋NLP、CV、搜推广与求职讨论群

 7be3b92527135c90e5e34174f8d32981.png

[1]https://github.com/IDEA-Research/Grounded-Segment-Anything

[2]https://www.reddit.com/r/MachineLearning/comments/12gnnfs/r_groundedsegmentanything_automatically_detect/

[3]https://zhuanlan.zhihu.com/p/620271321

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/72430.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

粤港澳大湾区Microsoft Build 2023 After Party - 广州站

在经历过阳春三月一大波GPT带来的AI浪潮之后,今年的Build大会尤其令人期待。本次Build大会发布了超过50个新技术,尤其是在ChatGPT中支持Bing插件来提供联机搜索、Windows Copilot加入微软Copilot大家庭,提出Copilot Stack来便于搭建您自己的C…

学会这八个技术,你离BAT大厂不远了

红人榜第七期来咯~本期干货:HTTP、本周最受关注的技术关键词TOP8,往下看吧~ 在如今这个时间和知识都是碎片化的时代,C站根据C1-C4认证的成长路径,进行知识细化整理,形成系统化的知识图谱。 小编根据C1认证的成长路径…

互联网大佬谁编程排第一?周鸿祎:我应该可以排到前三名

10月24日是程序员节。在这一天,360集团创始人周鸿祎在社交平台发布动态为程序员点赞。 周鸿祎表示,未来,世界是架构在软件之上,是数字化的世界,每一个程序员都承担着重要的使命,用技术为国家解决一些“卡脖…

这个 GitHub Trending 让我在腾讯会议中“换脸成”任何人!来唠唠如何上手

前言: GitHub 上又火了个项目,蛮有趣的:可以让你在 ZOOM 、腾讯会议等等软件中“换脸”成别人。自己 fork 到本地,调了一调。作者封装的已经相当好了,当然了,像我这种 CRUD 程序员 AI 小白 肯定是要调一天…

周鸿祎评互联网大佬编程能力:我可以排前三

10月24日,也是一年一度的程序员节,360集团董事长兼CEO周鸿祎在B站发布了一段视频,讲述自己最早学习编程时的经历,以及关于程序员的故事。 在互联网程序圈出身的大佬们中,谁的编程能力最高?对此,…

分割一切还不够,还要视频跟踪一切,《清明上河图》也能轻松拿下

南方科技大学郑锋团队的这项研究:Track Anything ,很好的解决了 SAM 在视频领域的短板。 本月初,Meta 发布「分割一切」AI 模型(Segment Anything Model,简称 SAM),可以为任何图像或视频中的任何…

【深度学习】分割一切还不够,还要视频跟踪一切,《清明上河图》也能轻松拿下...

南方科技大学郑锋团队的这项研究:Track Anything ,很好的解决了 SAM 在视频领域的短板。 本月初,Meta 发布「分割一切」AI 模型(Segment Anything Model,简称 SAM),可以为任何图像或视频中的任何…

小孩上了半年小学,针对老师的评语总结,如何对症优化教育培养策略?chatGPT搜了一下,AI震惊了我

评语 班主任评语: 你是一个性格内向、聪明伶俐的男孩。平时能按时完成老师布置的作业,学习认真,成绩优良,做事认真。但有时自己的事情还不能自己完成,希望你以后可以独立起来,遇到问题多想办法&…

安卓APP源码和设计报告——体育馆预约系统

项目名称:体育馆体育场预约系统专业:班级:学号:姓名: 目 录 一、项目功能介绍3 二、项目运行环境3 1、开发环境3 2、运行环境3 3、是否需要联网3 三、项目配置文件及工程结构4 1、工程配置文件4 2、工程结构目…

波士顿人形机器人Atlas学会“跑酷”,身手超越大部分人类

最近,有外媒报道,波士顿动力公司发布了一则关于Atlas机器人“跑酷”的视频。 在视频中,机器人Atlas小跑单腿跳过障碍物,甚至面对前面的盒子,可以来个非常炫酷的“三连跳”,跳跃高度40厘米。 Atlas来个完美…

波士顿动力人形机器人会后空翻了

11月17日消息,据外媒报道,波士顿动力(BostonDynamics)开发的人形机器人Atlas本来是一个笨重的人形机器人,现在会后空翻了。 Atlas在过去的几年里进步非常大,它不仅学会了后空翻,而且变得更加轻便…

波士顿动力机器人齐秀舞姿,这是要成团出道?

2020-12-30 18:40:34 机器之心报道 作者:杜伟、魔王 距波士顿动力被韩国现代收购不到一个月的时间,这家致力于「酷炫」机器人研发的公司放出了新的视频。这次人形机器人 Atlas、机器狗 Spot 和双轮机器人 Handle 齐上阵,大秀舞姿。 波士顿动…

这10个要上天的人形机器人,哪个符合你心目中的“人设”?

原文:人工智能机器人联盟 2017-04-15 你的办公室什么时候会出现人形机器人? 人形机器人的研究起步于1960年代后期,目标是解决人形机器人的双足行走问题。从最初的“左手右手慢动作”的低级阶段到今天已经侵入军事、航天、护理、娱乐等领…

「人形机器人」赛博梦碎,资本不为想象力买单

NEW 关注剁手日记视频号 最新视频→【暮云白版DJI Pocket 2来啦】 来源|深响 文|陈文琦 据报道,今年6月底,软银在重组旗下的机器人业务(Softbank Robotics),而且在2020年8月已经停产了其最负盛名…

技术解析 | 特斯拉为什么押注人形机器人“擎天柱”?

特斯拉本次发布的人形机器人“擎天柱”采用了与特斯拉相同的完全自动驾驶系统FSD (Full Self-Driving) 以及Autopilot相关神经网络技术,通过传感器和计算机视觉,利用海量数据持续训练,动态感知周围世界,做出更佳决策。 灵活的机械…

人形机器人汇总

1 波士顿Atlas 第3版Atlas采用电源供电和液压驱动。 头上的激光雷达定位器和立体摄像机可以使Atlas规避障碍物、探测地面状况以及完成巡航任务。 波士顿动力制造的机器人,除了双足人形机器人 Atlas,还有四足机器人 Spot 和两轮人形机器人 Handle。 2 …

关于显著性检验,有你想要的!

何为显著性检验? 显著性检验(significance test)作为判断两个乃至多个数据集之间是否存在差异的方法被广泛应用于各个科研领域。在统计学中,显著性检验是“统计假设检验”(Statistical hypothesis testing&#xff09…

显著性测试(Friedman test, Post-hoc Nimenyi test以及可视化)

: 目标: 1 了解Friedman test的基本原理以及使用实践; 2 了解Post-hoc Nimenyi test 的基本原理以及使用实践,包括结果的可视化。 Friedman test 作用: 简单来说, Friedman test就是一种基于排序的统计方法用来比较…

显著性检测的四种经典方法

最近闲来蛋痛,看了一些显著性检测的文章,只是简单的看看,并没有深入的研究,以下将研究的一些收获和经验共享。 先从最简单的最容易实现的算法说起吧: 1、 LC算法 参考论文:Visual Attention Detection in…

Stata实证:一键显著代码免费教程

目录 一、写在前面 二、使用Python生成可变变量组合 三、Stata代码 四、更进一步-寻找中介效应的控制变量 一、写在前面 !!!!!…