[天地无极] 万年潜水党被你们说的AI炸出来了

楼主我宣你呀 · 发布于 2019-10-31 09:04 · 1150 次阅读

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?加入月宫

x
emmmm非相关专业,稍微懂一点点人工智能,出来说两句。
我宫要是有研究这个的可以出来说两句,拿着社会新闻报道说话的就算了
共收到 78 条回复
楼主我宣你呀 · #2 · 2019-10-31 09:05:20  回复
人工智能的原理是靠学习模型进行数据集训练,得到仿真的人声或者其他数据,理论上来讲,如果数据集足够多,可以达到相似度极高的仿真模拟语音。
但是这个东西没有你们想的那么可怕,首先,相关技术还在研究中,目前的学习模型并不完善,比较先进的研究技术还在高校实验中,能投入到市场上的只是特别小、特别简单的一部分,放出来让大家体验一下的。

点评

lx解解,公安识别ai的技术是有的,只是我们普通人没有,因此才要向公众推广和普及人工智能知识,提高大家的防骗意识呀  发表于 2019-10-31 09:37
技术不完善没有市场化--知道并知道防范的人并不多--若真用来诈骗,反诈骗警惕性及技术都不具备 这个链条也成立呀,还是觉得更可怕了。  详情 回复 发表于 2019-10-31 09:19
楼主我宣你呀 · #3 · 2019-10-31 09:06:07  回复
第二,从原理来讲,如果你有相关技术,不需要
找本人采集数据,他在网上的语音、视频都可以在处理后作为数据集,只不过有一些数据质量比较低罢了。
举个例子,AI换脸在国外被用来把明星的脸换在se/qing视频中,你看哪个是亲自找本人去录视频的…

点评

但是现在是反推应用啊。把采集的数据应用到非本人的身上。比如诈骗,相似的脸加声音加虚拟电话号码,你信不信?之前有盗用视频动态和家里人视频骗钱的,嘴型对不上还能说是网络延迟。  详情 回复 发表于 2019-10-31 09:14
窈窕淑女 · #4 · 2019-10-31 09:07:13  回复
难道是没那么可怕的意思?

点评

现在不可怕,那将来呢?  发表于 2019-10-31 11:19
是目前的技术还达不到可怕的效果。洛天依出来挺久了,有技术有补丁,遮画面只听声音,还是能区分跟普通人说话有差异的  发表于 2019-10-31 09:12
蘑菇小象 · #5 · 2019-10-31 09:09:39  回复
听了lz说的觉得更可怕了,不过一般人应该遇不到这事

点评

nsdd  发表于 2019-10-31 11:13
但是防骗意识一定要有  发表于 2019-10-31 09:38
+1  发表于 2019-10-31 09:35
+1……  发表于 2019-10-31 09:11
Alexia · #6 · 2019-10-31 09:11:04  回复
emmm我觉得更加可怕了,也就是每一个明星的语音都能被不法分子用来训练模型

点评

解解,用这个技术搞死一个明星,大材小用了  发表于 2019-10-31 09:20
甚至你在微信里发的语音……如果有人愿意出钱……也是可以拿来调的……  发表于 2019-10-31 09:12
荒原美兔倚玉树 · #7 · 2019-10-31 09:14:12  回复
楼主我宣你呀 发表于 2019-10-31 09:06
第二,从原理来讲,如果你有相关技术,不需要
找本人采集数据,他在网上的语音、视频都可以在处理后作为数 ...

但是现在是反推应用啊。把采集的数据应用到非本人的身上。比如诈骗,相似的脸加声音加虚拟电话号码,你信不信?之前有盗用视频动态和家里人视频骗钱的,嘴型对不上还能说是网络延迟。

点评

所以从此以后,从不上传家人的视频,偶尔照片放盆友圈也是设置可见范围的。  发表于 2019-10-31 09:43
有脸有声音再加个伪基站,真的吓人  发表于 2019-10-31 09:38
我同事就碰到过  发表于 2019-10-31 09:32
十芳 · #8 · 2019-10-31 09:15:08  回复
创新中国的旁白配音那个人都已经死了,AI都能合成出来,所以你们在恐惶啥?公布出来有AI的声音才是正常的吧,因为信息公开后,你会加以辨别,不公开才是可怕的。

点评

nsdd  发表于 2019-10-31 11:56
是的,这位解解sdd  详情 回复 发表于 2019-10-31 09:40
楼主我宣你呀 · #9 · 2019-10-31 09:15:46  回复
第三,现在相关的刑侦技术可以识别和侦破AI制作的作品,且不说现在的AI技术还没有成熟,我国顶尖的科研技术人员都在高校和科研机构,刑侦能力绝对够够的,足以保证安全。

点评

排楼下姐姐  发表于 2019-10-31 09:50
到刑侦那一步相信肯定是没问题,关键在立案之前多少事情已经发生,而且我们作为大众好恐慌的是根本不知如何甄别防范  发表于 2019-10-31 09:22
淡月梅花 · #10 · 2019-10-31 09:16:51  回复
刚刚看了隔壁那楼去搜看到的,说的是湖南卫视《我是未来》的一期节目。我还看到最极端的情况是,甚至可以根据一分钟录音模仿一个人的声音,不过不确定那条新闻是不是博人眼球就不搬了
350FBEA3-5470-4C4E-B586-AB9AF14178A2.jpeg
喵喵喵喵喵 · #11 · 2019-10-31 09:17:22  回复
排楼上荒原美兔解解,只要这项技术用于诈骗,盈利所得绝对比去找技术人员调语音高,“有百分之二十的利润人就会考虑犯罪,有百分之百的时候一定会犯罪,超过百分之百的时候不惜一切的犯罪”
hedaisy · #12 · 2019-10-31 09:17:36  回复
其实很可怕啊,现在不够可怕是技术还不完善,但技术的完善在今天的科技水平是完全肉眼可见的速度,技术革新很难,完善是只要有财力和人力就可实现的
楼主我宣你呀 · #13 · 2019-10-31 09:17:47  回复
AI是未来的大方向,公安已经有能力运用AI破案了,不用担心
Screenshot_20191031_091328_com.zhihu.android.jpg
夜染指 · #14 · 2019-10-31 09:18:16  回复
楼主说的是针对普通人的点呀,对公众人物而言,舆论可以在真相明了之前杀死人的

点评

就是如此!  发表于 2019-10-31 12:05
想多了,明星更特殊,公开度和关注度更高。就你们说的那个明星而言,直接舆论拍死更简单吧?用其他方式制造假证据,比弄个AI便宜多了,剩下的钱说不定还可以多买个热搜   发表于 2019-10-31 09:23
解解你仔细看楼上的科普啊,不需要本人提供图像和声音的……  发表于 2019-10-31 09:21
普通人舆论也可以杀人的,比如上面说的ai换脸,假如有人看你不爽把你的脸换到seqing视频里,加上ai人声,澄清需的时间内你的名声就已经毁掉了  发表于 2019-10-31 09:21
我是玉兔爱嫦娥 · #15 · 2019-10-31 09:19:55  回复
楼主我宣你呀 发表于 2019-10-31 09:05
人工智能的原理是靠学习模型进行数据集训练,得到仿真的人声或者其他数据,理论上来讲,如果数据集足够多, ...

技术不完善没有市场化--知道并知道防范的人并不多--若真用来诈骗,反诈骗警惕性及技术都不具备

这个链条也成立呀,还是觉得更可怕了。
夜染指 · #16 · 2019-10-31 09:20:50  回复
刚刚在浮生看到了赵鸿飞的视频,现在有多少人会关心当年他女朋友死的真相,黄海波退圈了,现在又有几个人会在乎他pc的真相。在真相出来之前,舆论更可怕

点评

是的,如果资本的力量,加上乌合之众…  发表于 2019-10-31 11:58
+1,我也是今年才知道他退圈的真相,云潇潇之后他固然没演什么男主,没知音带那波节奏,配角总是能演的吧,就算后来澄清了又怎样?有几个人关心,他又能再出来演剧吗?   发表于 2019-10-31 11:27
当年我还是赵的路好,结果我是到今年才知道他是为什么突然就在屏幕上消失了  发表于 2019-10-31 11:16
是呀  发表于 2019-10-31 11:13
知音害死人,是不是被人搞了?  发表于 2019-10-31 09:23
冰心舞云裳 · #17 · 2019-10-31 09:21:40  回复
更可怕了
诸葛悯忠 · #18 · 2019-10-31 09:22:29  回复
楼主说的全是事后如何弥补破案,问题是如何防患未然,为嘛不把危险系数扼杀在摇篮里,我的关心点在没有相关法律基础上,如何保障使用者安全

科技这玩意日新月异,谁能想到4G没用几年,5G已经面世,6G都在研发了,7G在酝酿了。。今年不成熟,不代表明年不会全面开花。
喵喵喵喵喵 · #19 · 2019-10-31 09:23:49  回复
还是鲁迅先生那句话,我向来不惮以最坏的恶意揣测中国人,守法公民固然多,但仅是一小部分怀揣恶意的人就足够搅弄风云了……
小协奏曲 · #20 · 2019-10-31 09:27:43  回复
本帖最后由 小协奏曲 于 2019-10-31 09:29 编辑

我记得几年前,有部电影就用了一句合成语音做旁白,为了纪念参演这部电影但已经逝世的一位演员。还有高德的lzl导航,之前百度(是这家吗?)的明星语音包,这种合成技术一直都存在我们周围啊,只是以前没加AI这词

点评

导航语音实时在变,肯定是合成的啦。搜索app的语音会根据情境改变,所以我才觉得也是合成的,不过这个确实不一定  发表于 2019-10-31 10:39
语音包我一直以为是录音的。ai之所以可怕,我的理解是ai会根据基础语音,自由组合,以假乱真。(非业内,不清楚是否能真正达到以假乱真,万一可以就很可怕)   发表于 2019-10-31 10:18
用机器模拟人,好像一直是人类的执念,我想到了两百年前的弗兰肯斯坦。。。  发表于 2019-10-31 09:42
感觉加入这个词儿,把大家吓坏了  发表于 2019-10-31 09:29
楼主我宣你呀 · #21 · 2019-10-31 09:28:22  回复
好吧…之前我只关注AI来着,没弄懂你们在担心什么(汗)
“防患于未然”这个说法只能等国家出台法律了
我觉得AI的主要问题在于授权,没有授权的AI属于侵犯个人权利,但是这个授权肯定是有范围的,不能说我同意你用我的语音,你去干违法的事情也可以,对吧?
但是如果要干违法的事情,还需要找本人要授权吗????
从技术的角度讲,无论他参不参加那个活动,都是有风险的,这个风险跟活动没啥关系

点评

担心的是声纹  发表于 2019-10-31 12:12
这个我赞同,作为公众人物可用于采集的数据太多,真要用在违法的事情上根本不会在乎授权,随时采集合成!这个风险和参不参加这个活动无关!反倒是现在公开了,在大众的心理上打了预防针,随时能警惕,也是一种反向推  详情 回复 发表于 2019-10-31 11:32
喵喵喵喵喵 · #22 · 2019-10-31 09:29:10  回复
就像之前那个杀死女孩的14岁未成年,大众恐慌的单单只是这件事吗?不尽然,更多的恐慌的是将来有更多的人会遇到同样的情况啊!所以呼唤修法,目的就是希望把这种可能性尽可能地扼杀

点评

诈骗和杀人还是不一样的吧,提高对于科技的认识,提高防诈骗意识才是真的,这个东西就很仿造签名差不多,在公安不算事儿。  发表于 2019-10-31 09:32
八面修罗 · #23 · 2019-10-31 09:31:21  回复
要是哪天我接到个电话是我妈的声音,我还不得吓死!
楼主我宣你呀 · #24 · 2019-10-31 09:40:11  回复
十芳 发表于 2019-10-31 09:15
创新中国的旁白配音那个人都已经死了,AI都能合成出来,所以你们在恐惶啥?公布出来有AI的声音才 ...

是的,这位解解sdd
越之山水 · #25 · 2019-10-31 09:41:07  回复
ai换脸不能用于商业用途,同理,ai声音也应该不能用于商业用途。风险类同,这个不全是技术问题。而且那个app有关必须授权的权限有点多,有些和该app本身范围无关,个人感觉很不好。

点评

就是这样说啊  发表于 2019-10-31 12:13
这个活动我倒没有关注,但是我觉得你宫没必要把AI说的那么可怕。 据我所知,AI换脸已经用于商业用途了,前阶段那个ZAO换脸就是,新技术投入市场是大势所趋,就看怎么用  详情 回复 发表于 2019-10-31 09:51
楼主我宣你呀 · #26 · 2019-10-31 09:51:07  回复
越之山水 发表于 2019-10-31 09:41
ai换脸不能用于商业用途,同理,ai声音也应该不能用于商业用途。风险类同,这个不全是技术问题。而且那个ap ...

这个活动我倒没有关注,但是我觉得你宫没必要把AI说的那么可怕。
据我所知,AI换脸已经用于商业用途了,前阶段那个ZAO换脸就是,新技术投入市场是大势所趋,就看怎么用

点评

这是角色换脸吧?其实大型的电视剧或电影ai换脸不可怕,可怕的是滥用。随便一个小app就能做到ai换脸和ai声音,就挺可怕。如同现在的偷拍设备滥用。   发表于 2019-10-31 10:01
耿直的颜狗 · #27 · 2019-10-31 09:53:01  回复
人工智能是大方向倒是没错的
又大又圆 · #28 · 2019-10-31 09:56:14  回复
多谢lz科普,对于我个人来说这确实是未知领域,不能网上搜一个新闻就当做真理人云亦云,所以之前那帖我也没参与讨论,感觉大家把事情想的过于完美和普及了,好像明天后天就有人能模仿你家人给你打电话让你转钱,先不说现在技术达不到有些人说的完全克隆,对方还要付出大量的前期工作和资金...与其担忧自家的小金库安全,不如先担心国家安全来的现实。
乌拉那拉氏 · #29 · 2019-10-31 09:57:34  回复
……反正就目前来看,ai声音要发展到能够没瑕疵估计还远,高德够有钱吧,还是得一个一个找人录音,并且合成出来也有明显瑕疵,如果一个技术足够发达到完美犯罪,国家自己就会把他按住了,国家比你还担心社会影响。
科普ai是好事,十年前如果一个明星seqing视频出来人们根本不会想到那个换脸,换脸视频出来,以后人们才开始注意到这块,包括现在在网上看见的小黄片,你用这块技术去解释人们才相信。

点评

排  发表于 2019-10-31 12:41
正在输入 · #30 · 2019-10-31 09:59:31  回复
主要还是要法律
水若幽蓝 · #31 · 2019-10-31 10:57:36  回复
不必过于恐惧,但是对于新兴事物,尤其是有争议的应该同步完善立法。大家担心的立法这块,真的是我国的软肋啊。
摸摸兔毛 · #32 · 2019-10-31 11:07:46  回复
随便一个不知名的app就能做ai换脸,这就已经很不安全了,高德那种好歹大企业是有保障的吧,签约合同和管理制度都是成型很多年了。但是诸如这种小平台做出来的东西真的安全可靠吗?
之前AI换脸已经闹出了问题了,不仅仅侵犯了公众人物的肖像权,还把体验新技术的用户给带沟里去了,肖像权被默认使用了,谁知道这些数据会被拿去做什么事情呢?
反正一句话,能不用就不用,我不想给自己增添可能存在的麻烦。

点评

排  发表于 2019-10-31 14:44
+1  发表于 2019-10-31 12:34
夜染指 · #33 · 2019-10-31 11:30:42  回复
本帖最后由 夜染指 于 2019-10-31 11:35 编辑

还有AI换脸跟AI声音的普及,普通人不谈,就说公众人物,类似昨天lxl跟PG1那个视频人家大可以拿AI换脸技术洗,反正总归有人信的

大体上就是黑的能洗成白的,白的给洗成黑的,到时候真相如何根本就没几个人关心了,大多数人是盲目的,只相信自己愿意相信的

当然这些能洗的肯定是没犯法,但是道德层面上有问题的,可以利用舆论带节奏的
今天不下雨 · #34 · 2019-10-31 11:32:47  回复
楼主我宣你呀 发表于 2019-10-31 09:28
好吧…之前我只关注AI来着,没弄懂你们在担心什么(汗)
“防患于未然”这个说法只能等国家出台法律了
我觉 ...

这个我赞同,作为公众人物可用于采集的数据太多,真要用在违法的事情上根本不会在乎授权,随时采集合成!这个风险和参不参加这个活动无关!反倒是现在公开了,在大众的心理上打了预防针,随时能警惕,也是一种反向推广吧!

点评

nsdd  发表于 2019-10-31 13:23
赞同  发表于 2019-10-31 12:43
thetdyxhlaw · #35 · 2019-10-31 11:49:18  回复
楼主说的对,技术上现在达不到以假乱真的程度,如果涉及相关犯罪,一直有相关的刑法,没必要杞人忧天。就是没有ai,就没有诈骗吗?不是一直很猖狂。目前能掌握那个技术的人为什么不用正常合法的手段去赚取同样高利润率的生意。
吃瓜潜水兔 · #36 · 2019-10-31 12:03:05  回复
多谢楼主科普
四处逛逛 · #37 · 2019-10-31 12:38:17  回复
这楼里的意思是就算出了事也可以解决,问题是为什么要让人家出事?ai用于娱乐没有多大必要反而风险不小
是白啊白 · #38 · 2019-10-31 12:55:02  回复
听下来,觉得不是坏事,AI一定是未来走向,现在公布出来,以后其实更好摘出来,普通人不知道,但公众人物要AI声音实在太简单了,更本不需要本人,只要素材够多就行,确实有点杞人忧天
来自安卓客户端来自安卓客户端
摸摸兔毛 · #39 · 2019-10-31 13:02:35  回复
说公众素材很好提取,但是普通人的声音提取也方便啊,给你电话录音不就行了?这还很困难么?我个人认为不是所有科技都是需要推广大众的,因为对于大众来说有些技术并没有用反而会有找来麻烦,只要用于他们的特定领域就可以了。
不晓得叫个啥 · #40 · 2019-10-31 13:22:57  回复
(个人)所有东西都有利弊,就看怎么权衡
月影南瓜泥 · #41 · 2019-10-31 13:29:51  回复
这…就算真的有人拿ai技术行骗,那也是行骗者的责任吧。我有点想学学这种AI人声的,不是为了骗人,就是为了剪辑的时候不用额外找人配音了。(虽然好像首先要学剪辑才行)
玉树拒绝蒹葭 · #42 · 2019-10-31 16:55:36  回复
你们所担心的,即便他不做这个推广,他有这么多视频音频在社会流通,只要技术本身存在就会有这个风险。而不是在这个软件和推广。而且高科技一定是先用于国家机器,在向社会普及流通。这种技术在国家有备案,没有你们想象的那么容易用来犯罪,因为成本太高。如果因为简单的声音模仿而上当受骗,恕我直言,他再其他地方依旧会上当受骗。就像微信QQ当初多少人被骗,难道微信就不能用?
回帖
B Color Image Link Quote Code Smilies
快速回复 返回顶部 返回列表