鱼C论坛

 找回密码
 立即注册
查看: 462|回复: 3

[最新资讯] 0 1 3 1 - 打着「AI」旗号的 4 种骗局|不允许鱼油们受骗

[复制链接]
发表于 2024-2-26 18:00:00 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 不二如是 于 2024-2-25 18:57 编辑

1.png

最近某一舟课程的事情又将 AI 推到风口浪尖~

距离 AI 真正影响到我们的工作和生活,还有很长的一段路要走,不必恐慌,未来依旧属于人类~

防 AI 之心可以没有,但防人之心不可无!

本帖就分享 4 种近期常见的打着 AI 旗帜的骗局,看到果断远离就好!


骗局一:传播虚假消息

AI 发展涉及各个层面,比如技术、投资、落地应用等等环节。

随着各个群里或是公众号上的 AI 内容越来越多,就越需要我们有「鉴别」能力。

一大批浑水摸鱼的标题党为了争抢流量,现在已经毫无底线了。

download.jpg

最新的案例就是 AI 科学家谢赛宁,他之前在Facebook人工智能研究院担任科学家,现在在纽约大学担任助理教授。

他的一大代表作是跟前同事何恺明一起提出了 ResNeXt 网络。

但就是这样一位科学家,前段时间也被迫出来发朋友圈辟谣。

原因是某无良自媒体发了一篇文章,题目叫《震惊世界的Sora发明者之一,是毕业于上海交大的天才少年谢赛宁》。

就这篇文章,让他“人在家中坐,王冠天上来”。

谢赛宁不得不紧急辟谣说,Sora 和自己没有一点关系。

自己也莫名其妙竟成为了自媒体争抢流量的工具...

谢赛宁在辟谣时说:

现在的信息传播技术让每个人都有了超能力,做到了信息平权,但是如何能不被人恶意利用,不变成某些人、某些组织牟利和操纵的工具,是需要一整套监管方案的。

这类骗局其实还比较好辨别。

鱼油们以后在看新闻时,不要只信一个人或者一个账号说的话,可以进行多方印证。

如果消息牵涉到工作或者是财务决策,那就更要多方寻找靠谱的信息来源。

现在的搜索引擎和翻译工具如此方便快捷,不可能出现了一个重大突破,其他媒体都不报道。

只有个别公众号知道发文章,这背后肯定存在猫腻,虽然有 AI 辅助掌握正确的搜索技巧依旧很重要。

强烈安利小师妹的这个搜索技巧课:




骗局二:无良卖课

前几天看到最离谱的新闻就是,Sora 发布当天,已经有人开卖相关的培训课程了。

但要知道,现在全世界有权限体验 Sora 功能的人,都不会太多。

大多数人可能都属于路边的看客,看过一些 OpenAI 发布的精选视频而已。

那这些所谓的培训课程能教什么东西呢?

在 AI 时代,真的有人需要怎么培训发送指令吗?

不下结论,就像一个人在电梯里做蹲起,然后升到顶楼。

有人问他:

你怎么上来的?

他说:

我靠自己蹲起上来的

其实呢?都是靠电梯拉上来的...

虽然看起来很努力,其实没有什么用。

至少在短时间内,Sora 还不会大面积开放申请。

这种骗局,建议大家关注掌握技能本身,而不是夸大的效果宣传语。

例如我们看到两课程标题:

A:《教你如何用AI写出生动的小红书文案》
B:《教你如何用AI写出月入十万的小红书文案》

鱼油觉得哪个不靠谱?

答案是:
游客,如果您要查看本帖隐藏内容请回复



骗局三:伪造小黄/暴力图

今年1月底,一大批由AI合成的著名歌手泰勒·斯威夫特的照片在网络上疯狂传播。

被冠以“霉霉色情图片集合”“霉霉劲爆照”的标题,预估浏览量超过了千万次。

其实在这次霉霉事件之前,深度伪造技术就已经在色情及周边产业被使用,很多色情网站也会用大批量的伪造图片来吸引付费会员。

这些技术门槛很低,多关注咱们的视频动态,就能防止被忽悠:



国内也有人利用一些社交媒体上别人晒出的自拍等图片,生成一些露骨的色情图片,用来牟利。

现在,这类事件发生的频率之所以更高,很大一个原因就是AI技术的快速发展。

前几年还需要非常专业的技术人员才能掌握的“换脸”技术,现在只要下载相关的应用,就可以做到一键换脸了。

如果我们身边出现了这种事情,最基本的底线是做到“不信谣不传谣”!


骗局四:AI诈骗


在 AI 语音技术日趋成熟的今天,区分真假已非易事。

只需简短的样本,A I即可塑造出令人难以分辨的真实声音。

然而,技术的潜能不止于此。

现今,借助 AI,从静态图像到动态视频,无一不可信手拈来,制造出惊人的真实错觉。

近日,中国香港便发生了一宗涉及巨额资金的诈骗案。

一家跨国公司的香港分部员工,误信来自英国总部CFO的视频会议邀请,结果在会中转账了高达两亿港币。

诈骗者巧妙利用公开视频资料,仿造了总部高层的面容与嗓音,通过视频造就了一场伪会议的假象。

实则,在那场“集体”会议中,唯独该员工是真肉身参与。

在视频造假如此精巧的情况下,仅凭声音辨识已是不够的。

当电话中传来急促而惊恐的消息,比如交通事故、紧急入院或其他危机,人心难免慌乱,难以冷静鉴别声音的真伪。

曾有句流行语说:

无图无真相

而如今,即使是有视频,真相也不再铁板钉钉!

在面对 AI 诈骗时,我们必须保持警觉。

诈骗者的最终目的,依旧是诱使受害者转账。

铭记不向陌生账户转钱的原则,大多数诈骗可被识破。

对于那些年长的亲人,他们由于担忧子女安危,往往容易受骗。

我们可以采取预防措施,比如定期教育他们关于诈骗的知识,提高他们的防骗意识。

我们还可以设定特定的安全暗号。

比如:

如果接到消息称你遭遇车祸失去意识,他们可以反问一些只有你们知道的私密问题,如“他耳朵后面有痣吗?”或询问你小学老师的名字,以此来确认信息的真伪。

当然,防止亲人受AI诈骗的根本之道,仍然是我们与家人的频繁沟通,不给骗子可乘之机。



最后对大家也是对自己说:

AI 技术只是工具。

世界上不存在正义的或者邪恶的技术,最重要的还是这技术掌握在谁的手里,用来做什么事情。

如果平时也关注到了一些跟 AI 有关的骗局,欢迎分享出来,告诉更多的朋友们,让大家都提高警惕性。




预知更多神文请看:


如果有收获,别忘了评分


                               
登录/注册后可看大图


如此多懂学习的VIP至尊已订阅本专辑,你还不快点行动!(->订阅传送门 )
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2024-2-26 18:37:52 | 显示全部楼层
骗局四:AI诈骗


在 AI 语音技术日趋成熟的今天,区分真假已非易事。

只需简短的样本,A I即可塑造出令人难以分辨的真实声音。

然而,技术的潜能不止于此。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-2-26 19:02:50 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2024-2-27 17:04:16 | 显示全部楼层
还是那句,
错不在技术,在使用技术的人。
用好AI是关键
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-9-19 10:00

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表