作者:王钟的
美国社交网站脸书(Facebook)表示,已开发出能够辨识轻生念头的人工智能软件,即将将之推广到其它国家。事实上,已有多个研究团队表示研发出了能够预防自杀的人工智能技术,主要方法都是在邮件、论坛、社交媒体平台中分析含有自杀倾向和想法的语言,让心理干预人员获得及时介入的机会。在初步的试验中,有的机器识别正确率超过了90%。
尽管类似的系统精准性有待验证,比如会不会“误伤”原本没有真实自杀念头的用户——有的自杀念头仅能表现用户“为赋新词强说愁”的心理,但是,运用人工智能排查互联网上的海量数据,无疑是高效率地预防自杀的思路。
首先,“预告式自杀”在互联网上普遍存在。搜索近期新闻,就能看到许多通过微博等渠道“预告自杀”,得到关注后被成功解救的例子。无论这种网络自杀预告有多大的信度,只要有一丝真实的可能,就值得社会千方百计拯救。使用人工智能来筛查“自杀预告”,显然提高了社会自杀信息预警的覆盖面,减少干预机构的反应时间。
其次,即使一个人不直接表露自杀意愿,人工智能依然有机会分析出其自杀倾向。例如,机器可以统计与自杀相关的词语的使用频率,当一段时间内某个人频繁地使用一些跟自杀相关的词语时,人工智能就可以发出预警。机器能够察觉出语词间的细微差别,对一个人语言习惯作整体的画像,而这是感性的人工排查无力实现的。
其实,很多人都产生过自杀的想法,但未必会将自杀付诸实施。机器所能做的是将自杀想法排查出来。尽管自杀念头和自杀行为之间隔了很大的距离,人工智能的介入仍然很有意义。至少,对整个社会人群的心理健康而言,自杀的想法无疑是一个很重要的指标。当被机器检测出存在自杀倾向以后,你也许不必被当成自杀者那样看待,但一定有必要找个心理咨询师聊聊了。
当然,这样的人工智能技术能不能有效实施,还取决于数据来源是否足够丰富。很多表达潜在自杀者内心想法的言语,可能出现在非公开的、受隐私保护的领域,比如不对外公开的朋友圈,需要添加好友才能看到的社交圈,等等。人工智能技术是否有权利突破隐私保护的限制,既是一个伦理问题,也是一个法律问题。即使认为自杀干预很有必要,网络平台也应该事先跟用户签订协议,以避免后期产生纠纷。
在科幻作品中,人工智能被赋予了复杂的形象,很多人担心人工智能会对人类过多的控制。其实,在现实中没必要那么紧张,人类对人工智能技术有充分的驾驭能力,完全可以将技术用于安全、健康的环境中。预防自杀可谓是人工智能技术的小试牛刀,大胆设想的话,人工智能可以在人类健康领域扮演更重要的角色。当人工智能发展到一定水平,人们对健康管理、心理管理的观念也势必大不一样。
当然,人类利用人工智能,并不是完全依赖人工智能。就像自杀干预一样,机器可以代替人处理大量数据,作初步的筛查,但是想要走进存在心理隐患者的内心,还是需要内涵更丰富的人工对话。无论如何,人工对机器排查作最后的把关,不仅是对人工智能技术负责任,也是对心理健康管理这一公共健康重要领域的负责任。(王钟的)
·凡注明来源为“海口网”的所有文字、图片、音视频、美术设计等作品,版权均属海口网所有。未经本网书面授权,不得进行一切形式的下载、转载或建立镜像。
·凡注明为其它来源的信息,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
网络内容从业人员违法违规行为举报邮箱:jb66822333@126.com