如果应用不当,人工智能 (AI) 弊大于利。 但是,当人类无法从同类中获得安慰时,它可以提供急需的帮助。
AI 并不总是获得良好的声誉。 它被指责取代人的角色,夺走一个人的生计,威胁人权。
不过,在适当的制衡机制下,很少有人会否认人工智能在增强业务运营和改善生活方面的潜力。
其他人则利用人工智能来帮助挽救生命。
乔普拉基金会于 2020 年 9 月推出了一个名为 Piwi 的聊天机器人,以提供旨在防止自杀的“社区驱动解决方案”。 这个由人工智能驱动的平台由“专家”培训,并根据在线互动,将用户与 5,000 名待命的辅导员联系起来。
该基金会的首席执行官 Poonacha Machaiah 说:“通过 Piwi,我们让人们能够使用情感 AI 来学习、解释和回应人类的情感。通过识别焦虑和情绪变化的迹象,我们可以提高自我意识并提高应对技巧, 包括通过及时的实时援助和干预来减轻压力和防止自杀的步骤。”
据乔普拉基金会创始人迪帕克乔普拉称,Piwi 已经减少了 6,000 多次自杀未遂事件,并通过文本处理了 1100 万次对话。迪帕克乔普拉是一位以倡导替代医学而闻名的印裔美国作家。 他将 Piwi 描述为一个“道德人工智能”平台,经过系统内置的安全措施训练,并补充说后端总是有人在必要时提供支持。
Chopra 说,年轻人尤其被聊天机器人所吸引。 注意到自杀是青少年中第二大常见死因,他说年轻人喜欢与 Piwi 交谈,因为他们不觉得自己受到了评判。 他在 2022 年 3 月接受 The Daily Show 采访时说:“与人类交谈相比,他们更愿意与机器交谈。”
在新加坡,自杀是 10 岁至 29 岁人群的首要死因。2020 年,自杀死亡人数是道路交通事故的五倍,是新加坡自 2012 年以来自杀案件数量最多的一年。 当年每 100,000 名居民中有 8.88 人死亡,而 2019 年为 8 人。
所有年龄段的人都有所增加,尤其是 60 岁及以上的人,自杀死亡人数创下 154 人的新高,比 2019 年增长 26%。行业观察家将人数激增归因于 COVID-19 大流行,在此期间更有可能面临社会孤立和财务困境。
据估计,在新加坡,每一起自杀事件都会影响到至少六个亲人。
我也曾因精神疾病失去亲人。 从那以后的几年里,我经常想知道还能做些什么来防止他们丢失。 他们都可以接触到医疗保健专业人员,但显然这证明是不够的或无效的。
他们在最后一小时最需要帮助时未能获得帮助,是因为与聊天机器人不同,人类医疗保健专业人员并不总是 7 天 24 小时可用吗? 或者他们是否因为感到被评判而无法完全表达对另一个人的感受?
像 Piwi 这样的人工智能平台会说服他们在做出最终决定之前的那个决定性时刻重新考虑他们的选择吗?
我对人工智能在某些领域的使用持强烈保留态度,尤其是执法和自动驾驶汽车,但我认为它在 Piwi 等解决方案中的应用前景广阔。
虽然它肯定不能取代人类医疗保健专家,但在人类不被视为可行选择的情况下,它可以证明是至关重要的。 看看 Piwi 据说已经减少的 6,000 次自杀企图就知道了。 否则这些人中有多少人可能已经丧生?
而且还有更多的空间可以利用人工智能创新来改善医疗保健的提供。
大约十年前,我提出了一种可以自动分配患者处方药的联网药丸分配器的可能性。 这对于难以记住他们每天或每周需要的大量药片和补品的老年人特别有用。 它还可以降低意外过量或错误消费的风险。
自从我写那篇文章以来,技术取得了重大进步,可以进一步提高药丸分配器的准确性和安全性。 可以集成人工智能视觉识别工具来识别和确保分配正确的药物。 该机器还可以包含每种药物的更新资料,例如每颗药丸的重量及其独特特性,以进一步确定已分配的正确药物。
诊所和药房可以将每位患者的处方药装在药筒中发放,每隔几个月可重新装药,并采用必要的安全功能加以保护。 相关医疗数据存储在墨盒中,包括在家中将其插入机器时即可访问的配药说明。 墨盒还可以在需要补充时触发警报,并在患者无法出门时自动向诊所发送订单,要求将新墨盒运送到家中。
药丸分配器可以进一步与其他医疗保健功能集成,例如为糖尿病患者分析血液的能力,以及远程医疗功能,以便医生可以在发送的数据显示异常时拨入检查患者。
药丸分配器等人工智能解决方案对于新加坡和日本等人口老龄化国家至关重要。 它们可以支持更加分布式的医疗保健系统,在该系统中,医院和诊所的中央核心网络不会负担过重。
有了正确的创新和保障措施,人工智能肯定可以帮助人类无法解决的问题。
例如,根据甲骨文发布的一项研究,亚太地区 66% 的受访者认为机器人将在人类在可持续性和社会进步方面失败的地方取得成功,该研究对该地区的 4,000 名受访者进行了调查,包括新加坡、中国、印度、 日本、澳大利亚。
此外,89% 的人认为人工智能将帮助企业在实现可持续发展和社会目标方面取得更大进展。 大约 75% 的人对企业迄今缺乏进展表示失望,91% 的人希望组织就如何优先考虑 ESG(环境、社会和治理)问题采取具体行动,而不是仅仅提供支持的口头表达。
与 The Chopra Foundation 一样,CallCabinet 也认为 AI 可以帮助客服代理应对处理案件的精神压力。 这家总部位于英国的语音分析软件供应商认为,具有高级声学算法的人工智能工具可以处理关键短语并评估语速以及音量和音调。 这些使组织能够确定文字背后的情绪并评估每次互动的情绪。
CallCabinet 建议,这些可以让管理人员监控服务呼叫并识别表明潜在心理健康问题的模式,例如负面的客户互动、提高声音和针对座席的脏话。
因为当人类无法为需要的人提供安慰时,也许人工智能可以?