👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!
🤖 『OpenAI通过了一大批GPT-4申请』大量放号ing~快去看邮箱!
🤖 『小马智行 | 广州南沙区开启车内无安全员的自动驾驶出行服务』
4月21日,小马智行获得广州市首个也是唯一一个远程载客测试许可,获准在广州开启全新阶段的自动驾驶出行服务(Robotaxi)。即日起,在广州南沙区803平方公里范围内,市民有机会通过手机软件PonyPilot+呼叫到一台真正车内无安全员的自动驾驶车辆,去往高铁站、地铁口、重点商圈、住宅小区、市民公园等目的地。 官方报道
🤖 『吴恩达联合OpenAI出品ChatGPT Prompt课程』免费,有API,1.5小时,B站有中文字幕版
4月27日,DeepLearning.ai 学习网站推出了一门新课——ChatGPT Prompt Engineering for Developers (面向开发者的ChatGPT提问工程)。课程由OpenAI技术人员Isa Fulford和吴恩达联合授课,共9课时,1.5小时的时长:
1. 课程简介 (Introduction)
2. 提示工程关键原则 (Guidelines)
3. 提示工程需要迭代 (Iterative)
4. 总结类应用 (Summarizing)
5. 推理类应用 (Inferring)
6. 转换类应用 (Transforming)
7. 扩展类应用 (Expanding)
8. 打造聊天机器人 (Chatbot)
9. 课程总结 (Conclusion)
课程简单介绍了语言模型的工作原理,提供了最佳的提示工程实践,并展示了如何将语言模型 API 应用于各种任务的应用程序中。此外,课程里面提供了Jupyter Notebook代码实例,可以直接使用OpenAI提供的API Key获得结果,所以没有账号也能体验一把了。
授课与字幕均是英文,B站已有搬运和汉化。 👉 课程网址 | B站汉化版本
🤖 『妙用 AI 拍电影,人人皆可为导演』搭建电影制作工作流
🧰 油管小哥用AI创作电影的全流程
Youtube博主发布视频分享了他使用AI 圆了「导演梦」的全过程。
▢ 使用 OpenAI text-davinci-003 语言模型完成了一部科幻短篇小说,并开始思考用 AI 制作与之相关的电影视频
▢ 使用 Amazon Polly 生成语音,选择了贾斯汀作为旁白,语音效果非常逼真
▢ 使用 Midjourney 生成图像,但这个过程并不容易,一张符合整体电影风格的图片往往10-20次的尝试
▢ 使用 AI 生成音乐,并为整部影片进行配音
▢ 使用 RunwayML Gen2 或 Wonderdnamics 等工具,展现视觉特效
▢ 使用 Premiere Pro 等剪辑软件,将上述素材剪辑到了一起,一部精彩的电影就出现了 👉 这位博主的分享
🧰 更为本土化的解决方案
AI工具的出现,大大降低了制作电影质感视频的门槛。将多种AI工具像乐高一样拼接组合,满足一个实际或炫酷的需求,也成为了一种新的「时尚」。这里汇总下各环节工具清单,看看你能「拼」出来怎样的工作流:
脚本文案
ChatGPT:https://chat.openai.com/chat
New Bing Chat:https://www.bing.com/
You Chat:https://you.com
音乐生成
Soundful:https://soundful.com/
Aiva:https://www.aiva.ai/
图片生成
Midjourney:https://www.midjourney.com
Stable Diffusion:https://stablediffusionweb.com
DALL·E:https://playgroundai.com/
文本配音
Amazon Polly:https://aws.amazon.com/polly/
Azure text-to-speech:https://azure.microsoft.com/en-us/products/cognitive-services/text-to-speech/
Speechify:https://speechify.com/
Murf:https://murf.ai/
视频生成
Synthesia:https://www.synthesia.io/【在短短几分钟内创建专业视频,无需摄像机、麦克风或演员】
DeepMotion:https://www.deepmotion.com/【使用 AI 驱动的无标记运动捕捉和实时三维身体追踪】
RunwayML Gen2:https://research.runwayml.com/gen2 【RunwayML Gen2 是一种多模态的人工智能系统,可以用文本、图像或视频片段生成新的视频。它是 Runway Research 的最新研究成果,也是第一个公开可用的文本到视频生成器】 👉 来源
🤖 『手把手教人用AI做微信表情包』麻瓜也能10分钟上架一套表情包
网易又公开了一份很不错的教程!内部设计师教你用MidJourney快速制作一套微信表情包,还能上架发布!
第一部分:查看微信表情包的素材要求
上架微信表情包,需要在“微信表情开放平台”提交作品,审核通过才可以。
1. GIF格式,240x240像素,每张不超过500KB
2. 数量只能是8张、16张或24张
3. 同一套表情主图须全部是动态或全部是静态
4. 动态表情需设置永久循环播放
5. 同一套表情中各表情风格须统一
6. 同一套表情中各表情图片应有足够的差异
第二部分:打开MJ开干
记住这个关键词「multiple poss and expressions (多个动作和表情)」,可以让你的角色获得不同的形态。
1. MJ设置「Niji 5」漫画模式
2. 关键字输出图片素材
3. 抠图,并配上「骚气十足」的文案
第三部分:提交等待审核…
搞定了你的表情内容,接下来就是补齐资料,上传审核了。
工作时间审核速度很快,大概2小时左右就通过了呢! 👉 网易完整教程
你也可以尝试哥飞分享的这句Prompt来快速生成一组表情包:cute [SUBJECT]'s head emotions emoji sheet, for Twitch --niji 5
上图中从左到右的Prompt依次是:
▢ cute
cat
’s head emotions emoji sheet, for twitch --niji 5▢ cute
strawberry
’s head emotions emoji sheet, for twitch --niji 5 👉 即刻@哥飞
🤖 『AI应用的真钱景』如何拥抱住千年一次的时代机会
这篇文章从「项目实例」「乐观/不乐观」两个层面,说一下AI应用型企业,特别是AI初创公司的钱景和未来成功的关键。既要避免成为先烈,又不能犹豫太久。
☹ 先说不乐观的方面
有远大志向的初创公司,要意识到头上的大山和身边的竞争,不要头脑发热,要另辟蹊径。
1. AI技术迭代极快,远超摩尔定律,提供「智力」的平台大公司,会吃掉绝大部分价值
2. 在大公司开发的版本上做小修小补?当小公司在为开发一点小功能、融一点可怜的钱的时候,大公司和开源社区已经把他们想做的东西做完了
3. 微软神速推出Copilot,宣告了在AI文字处理和创作领域做任何事情都极其便利。创业公司如果没有走出大厂布局的范畴,没有快速积累起用户,当大厂下水后只有死路一条
4. 中国2B行业是价格和关系优先,不是产品和技术优先,小公司可以赚点小钱,但走不到拿风投大钱和上市那一步
😁 再说乐观的方面
AI在应用端,会诞生完全崭新的、与现有互联网截然不同的下一代互联网。AI的最大价值,诞生新巨头的地方,是它产生的未来的东西,是我们没看到的和看不清的。
1. 个性化AI
2. 新入口
3. 新的内容盈利模式
👀 拥抱下一代互联网,需要脑洞大开的想象
面对如此的时代大机遇,做先烈,是比只做看客更荣耀的事。想拥抱AI的企业和创业者,只有把自己的脑洞打得更开、更创新,才可以驾驭好这个无限逼近人类的智能体。👉 作者完整论述
🤖 『关于 ControlNet 的一切』原理 & 代码 & 教程,20+最精华内容汇总!
最近 ControlNet 势头很猛,补齐了Stable Diffusion 条件控制这块短板,实现了人体姿势、图像边缘、深度图、语义色块图、法线图等多种方式对生成的图像进行精确控制,往无缝融入生产工作流又迈进了一大步。这里汇总了目前看到的关于ControlNet的一切:
🔔 原理说明
项目与使用简介:https://mp.weixin.qq.com/s/UfWNIknn7h-JaiNNmLPybQ
从玩具变成生产利器:https://mp.weixin.qq.com/s/n0YznjSncYPkI93RpYxcRg
🔔 程序及代码
官方Github:https://github.com/lllyasviel/ControlNet
网页试玩demo:https://huggingface.co/spaces/hysts/ControlNet
ControlNet stable diffusion webui automatic111插件:https://github.com/Mikubill/sd-webui-controlnet
ControlNet video 代码(runway gen1视频编辑平替):https://github.com/camenduru/fffilonis-controlnet-video
ControlNet video 网页试玩:https://huggingface.co/spaces/fffiloni/ControlNet-Video
新功能上线说明(无需文字引导,纯图片猜测生成):https://mp.weixin.qq.com/s/10W6bIhPQJ4aQafv_MaW9A
ControlLoRA,一个能够控制Stable Diffusion空间信息的轻量神经网络,不需额外安装controlnet,使用Lora文件即可实现条件控制:https://github.com/HighCWu/ControlLoRA
T2I-Adapter,一个类似ControlNet的算法,同样可以对SD生成的图片进行条件控制:https://github.com/TencentARC/T2I-Adapter
🔔 教程及案例
初学者使用指南 (英文版):https://www.reddit.com/r/StableDiffusion/comments/1167j0a/a_guide_for_beginners_on_a_controlnet_workflow/
初学者使用指南 (中文版):https://mp.weixin.qq.com/s/wAC_Mr_YarV3seoM_0dLQA
ControlNet SD webui 111插件安装:https://www.bilibili.com/video/BV1jM411c7ev/
如果无法自动安装插件请看这里:https://www.bilibili.com/video/BV1RD4y1A7Cb/
如何和具体应用场景结合: https://mp.weixin.qq.com/s/ylVbqeeZc7XUHmrIrNmw9Q
生成清晰的艺术字体:https://www.reddit.com/r/StableDiffusion/comments/119j8qr/clear_text_using_controlnet/ 👉 Simon的白日梦
感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!
@司马缸砸光、@人间浮士德、@bebe *2、@超人
◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!
◉ 点击 🎡生产力工具与行业应用大全,一起在信息浪潮里扑腾起来吧!