上海园区招商办公室
联系人:梁经理
联系电话:15000456391
欢迎来电咨询,竭诚为你服务!
在互联网大厂们的“调教”下,小雷发现,越来越多网友离不开云服务了。
说起来也挺奇妙,乔布斯在2011年就推出了iCloud,当时他还表示:
“以后的个人电脑只是一部机器,而云服务将成为数字生活的核心。”
那时候还没多少人信这回事儿,甚至时不时有新闻说这服务就是鸡肋。
但十多年过去,他的理念得到市场的验证,厂商们都陆续推出了和iCloud类似的云服务。
现在咱们平时存在手机里照片和文件,都能通过云服务无感备份,并且能在同一生态下的设备随时查看。
不过在普通用户眼里,像iCloud等云服务,更像是一个扩展硬盘,一定程度上缓解了内存不足的焦虑。
小雷有一位朋友,用的就是iPhone SE2 64GB至尊乞丐版。
为了节省空间,他把所有照片都上传到iCloud,本地文件一个不留。
怎么说呢,这确实是缓解内存不足的方法之一,成本也比较低。
但小雷不太建议这么做,无论再怎么折腾,在本地留下源文件是很有必要的。
因为,你永远不知道AI审核会对你的云服务文件,做出些啥操作来…
一张照片,让他被谷歌彻底封杀
小雷对云服务的担忧,都源自于前两天的一个离谱新闻。
漂亮国旧金山有一位老哥叫马克,在孩子出生后,他就做了全职爸爸,可谓是父爱满满。
不过最近他却遇上了一件很憋屈的事儿,他用了很久的谷歌全家桶被无情封杀。
谷歌甚至把他标记为罪犯,最后把当地警察都惊动了,直接上门查马克水表。
马克和警察们四目对视,眼神里带着九分疑惑,一分不屈。
那么,这位老哥到底犯了啥事?
严格来说啊,马克没有做任何违法犯罪的行为,整个事件就是被谷歌AI搞出来的大乌龙。
在2021年2月的一个晚上,马克的孩子下体出现了肿胀,把他和妻子都担心坏了。
恰好那时候疫情又严重,他妻子就打电话给护士,一边预约门诊,一边提前给医生描述病情。
图源:纽约时报
不过呢,医生那边光听文字描述也觉得不够直观,就要求他妻子用手机拍一张照片,上传到医院指定的信息投递系统。
妻子没想太多,拿起马克手机,拍了好几张自己儿子的下体高清无码照。
后来在照片的帮助下,医生很快诊断出病症,开了点抗生素给孩子吃,果然过几天就康复了。
但是啊,孩子是没事了,马克自己却开始被各种破事缠身。
在孩子康复的几天后,马克的谷歌账号突然被封杀,所有需要用到谷歌账号的互联网也彻底下线。
可能有小伙伴对这事儿没啥概念,马克这遭遇,相当于是在浩瀚的互联网上失联了…
在海外的互联网生态,特别是基于安卓系统的互联网生态上,谷歌是不可或缺的存在。
每台安卓手机出厂都自带GMS框架,在这个框架之下,谷歌组建起了整个互联网设施。
像海外很出名的YouTube、Twitter和Facebook,都处于谷歌生态下,能用谷歌账号一键登录使用。
而谷歌自家的浏览器、键盘和云相册就更离谱了,你手机里要是没有谷歌框架,甚至连App都打不开。
马克算是标准的中年互联网用户,平时也就用谷歌家的云相册和日历比较多。
谷歌相册在海外普及度特别高,免费空间又大,马克便用来自动备份图片和视频。
至于日历,他主要用来记录和妻子的各种纪念日。
到了特定的日子,谷歌日历会自动给出提醒,以免忘记重要节日被无情家暴。
要说比较核心的,大概就是马克买了个Google Fi,也就是谷歌推出的加密电话卡。
基于马克对以上谷歌服务的依赖,被谷歌封号以后,他相册里的照片全军覆没。
平时用得最多的电话卡也凉了,别说身边好友,警察一时间都联系不到他。
这老哥一开始还很纳闷,为啥自己没做过坏事,还会被谷歌封杀。
后来谷歌直接给他发了条通知,说他涉嫌“儿童性虐待和剥削”。
马克看到这通知,突然就懂了。
他当时为了让医生更容易看清楚病状,还用手指着儿子的下体拍了张照片。
谷歌AI肯定是以为他是在性虐待儿童,就给他封号并报警处理。
后来警察上门查水表,对他的互联网云服务内容进行无死角搜查,最终才确认了马克是无辜的。
与此同时,马克的谷歌账号也快要被永久删除。
他只能马不停蹄也带着警方的报告去找谷歌,结果人家压根就不管,问就是违反了谷歌的规则。
那咋办?只剩下提起上诉这条路呗。
至于上诉的费用,他有和律师聊过,大概7000美元,钱是能掏出来,但关键是马克觉得不值得啊…
整件事回顾下来,基本就是谷歌AI的锅,最骚的是谷歌那边都知道马克是无辜的,但依然不给解封。
AI审核不是万能的
从“谷歌AI封杀马克”这事儿能得知,谷歌是会主动审查用户相册和云盘等在线内容的。
而谷歌也确实一直在打击儿童性虐待内容,像是在《服务条款》中,就明确禁止利用谷歌的任何平台来存储或分享这类内容。
至于审核方面嘛,谷歌用的还是人机结合的方式,AI先自动检测,等检测出问题了,再由审核人员来定夺。
但这里就有两个问题了。
第一个是,虽然保护儿童很重要,但很多网友觉得,随意扫描用户隐私图片是在侵犯隐私。
不过关于这一点,谷歌其实有在《用户协议》中明确解释。
“亲亲,我们收集信息是为了提供更好的服务呢。”
作为用户,我们要么接受,要么不用,显然国外的老哥们是无法拒绝的。
至于第二个问题,就是谷歌为何这么头铁,明知道人家是无辜的,还不愿意解封账号。
小雷觉得,这得从国外大厂们打击互联网违规内容的侧重点有关。
像谷歌、脸书和苹果等大厂,最看重的,就是对儿童性虐待内容的打击。
谷歌这种技术大厂,更是在2000年初就对这部分内容的审核技术进行投资。
至于苹果,它在今年4月就表示要推出类似的技术,用来扫描自家智能设备上的图片和视频,专门打击儿童色情内容。
后来用户们担心自己隐私会被侵犯,在海浪般的反对声中,果子哥还是妥协了,表示暂时搁置该计划。
直到现在啊,这个扫描技术依然没有上线,可见阻力之大。
谷歌这边由于起步早,在海外互联网的话语权又足够大,用户反而成为了妥协的一方…
而行业内主流的AI审核工具有两个。
一个是微软在十多年前就发布的PhotoDNA,它的工作原理和杀毒软件有点像。
喏,每个图片都有唯一的数字签名,也就是哈希值。
微软会创建一个不断更新的库,专门存放那些违规图片的哈希值。
平台只要用PhotoDNA来审核,通过提取图片的哈希值和库对比,就能快速发现那些违规图片。
不过大家估计都能猜到,它的缺点还是挺明显的。
PhotoDNA能不能检测出CSAM内容,完全取决于“违规库”够不够全面。
所以技术能力贼强的谷歌,也在2018年发布了基于机器学习的Content Safety API,并免费提供给各个企业使用。
Content Safety API基于机器学习,进化速度快,准确率更高。
但它也有一些小缺点,首先在原理和微软家的就不太一样了。
谷歌这个玩意儿需要人机结合,说白了会自动给违规图片打上“优先级”。
那些被标记为优先级高的图片,才会经由人工审核处理。
像马克所拍摄的图片,就是属性过于明显,AI甚至不用交给审核员来处理,自己就能标记为“纯纯的违规图”。
于是封号+报警两大操作,就落到大冤种马克头上了…
怎么说呢。
如果只按照图片来处理,那马克拍的儿童下体图,肯定是违规的。
但人是有感情的,得结合情境来理解,人家是为了给医生判断病症,才拍的照片。
连警察都调查完毕,说马克是无辜的,谷歌这边硬是不解封,AI犯的错,还得让当事人来还…
除此以外啊,AI审核还误封过不少欧洲艺术雕像。
按事实来说,这些雕像确实是裸体,但从艺术的角度来看,这又不是啥问题。
AI审核的准确度还比较“死板”,不然也并不会有人工审核岗位了。
相比其他大厂,谷歌最头铁的是过于依赖AI审核,很多图片没走到人工审核那一步,就被AI“判罪”了。
而且谷歌的态度也挺那啥,属于是宁愿杀错,也不放过。
只能说,AI虽好,但也不能矫枉过正。
如若转载,请注明出处:https://www.dhuoke.com/16360.html