为什么人寿保险的未来可能取决于您的在线形象

在社交媒体网站上发布自己吸烟的照片晒晒自己跑步的照片 这两个建议出现在《华尔街日报》最近一篇关于纽约州关于人寿保险公司如何使用公共数据来帮助设定保费的新规则的文章中这样的提示——在你为人寿保险支付的费用可能取决于你的下一篇 Instagram 帖子的标题下——似乎不祥,预示着一个被监视的未来,关于攀岩的推文可能会损害你的钱包,并且存在管理照片以吸引保险公司的服务

为什么人寿保险的未来可能取决于您的在线形象

纽约只是第一个围绕这种做法发布指南的州,它的裁决是,只要公司不因种族,宗教和性取向等因素而歧视,非传统数据是可以的其他州可能会关注并效仿

人寿保险公司希望更新他们的方法并提高他们的业务效率消费者担心他们的公共信息会被歧视性地滥用该行业的性质也无助于减轻这些恐惧,因为人寿保险本质上是区分人与人的不同的因素导致人们支付不同的保费政府监管机构希望平衡客户和企业的利益,但这并不容易

在其最简单的,人寿保险是企图在经济上保护他人在意外死亡的事件您支付保费,如果您在一定时间内死亡,保险公司将支付幸存者如果没有,保险公司会保留这笔钱设定保费率的过程可能缓慢且具有侵入性通常,客户将填写一份申请,其中包括病史以及有关吸烟和其他生活习惯的问题在其他情况下,他们还将接受包括心电图和血液和尿液样本分析在内的检查具有精算学经验的承销商会利用所有这些信息来计算风险水平并设定费率

算法加快了这一过程——尽管决策完全自动化的情况并不多——并且可以使其更加精确有时,该算法会给一个人开绿灯,这样他们就不必通过侵入性医学测试立即收到保单的便利性吸引了那些不想等待数周才能看医生的人,这可能会导致购买更多的人寿保险单虽然人寿保险销售传统上是与代理人面对面互动,但这种模式很快就失宠了,这意味着算法流程更适合在线销售

非传统数据以两种不同的方式发挥作用首先,大量的,去识别化的数据被用来训练这些算法,以便它们学习,例如,信用评分为 450 对应于高 20% 的死亡风险这些数据来自许多收集,构建和销售这些信息目录的消费者数据供应商然后,当 Jane Doe 去购买人寿保险时,一个单独的程序将在网络上搜索她现有的公共记录,以提供给算法

可是,根据 Aite Group 高级人寿保险分析师Samantha Chow 的说法,专门使用社交媒体数据的情况很少见据《华尔街日报》报道,在纽约州调查的 160 家保险公司中,只有一家使用社交媒体和其他互联网活动进行承保,尽管一些供应商确实根据申请人电子设备的状况或类型和消费者如何出现在照片中

当社交媒体的使用,它通常以减少欺诈行为Carpe Data等工具使用姓名,电子邮件和生日在互联网上查找信息,这些信息可能显示某人是否在他们的应用程序中撒谎了关于吸烟或吸毒的信息周说,结果不会被用来拒绝申请人,但它们可以用来将某人转移到具有更高保费的风险等级类别中

所有这是正常的,在理论上说,纽约州,也有巨大潜力掩盖的歧视形式,被法律所禁止因此,保险公司的工作是确保该过程不存在歧视性,这说起来容易做起来难

算法很容易不明确使用亚洲或黑人等种族因素或纽约指南提到的任何受保护类别但是,如果该模型包括某人是否在播放Crazy Rich Asians或Black Panther, 您的模型中有一个种族代理,康奈尔大学运筹学教授Madeleine Udell说此外,当模型变得复杂时,很难确定是哪个确切因素导致了某个结果

测试歧视的一种方法是查看结果你能使用像种族这样的受保护属性来预测结果吗如果我不使用原始数据来做出人寿保险决策,而是仅使用种族来预测保费,这表明我的模型与受保护的属性过于相关,Udell 说如果 不能帮助我预测结果,那么该模型可能没有那么具有歧视性

该建议仍然没有解决另一个问题,这根本不是技术问题虽然法律可能会保护人们免受基于宗教或国籍的歧视,但它不会保护人们免受算法可能确定相关的任何其他类型的歧视Rick Swedloff说,因为所有的保险定价都是歧视性的,所以重要的是要弄清楚什么时候才是真正重要的罗格斯大学法学教授,保险和大数据专家在人寿保险的背景下,很明显,老年人会比年轻人支付更多,但很少有人关心这种判断那么歧视吸烟可以吗这已经发生了如果我们知道访问 Pinterest 的人往往死得更早,是否可以歧视他们

我认为说你必须证明某事是‘非歧视性’,这是对‘什么是歧视性的以及使用数据对人做出判断的合理方法是什么数据与社会研究所的律师和博士后学者Andrew Selbst说我不知道我们作为一个社会是否对此有正确的答案

尽管《 华尔街日报》的提示可能还不是完全必要的,但技术确实发展迅速专家担心,如果这个社交媒体监控世界真的到来,不透明的算法和去上下文的数据可能会导致不公平的高保费或不知道如何有效地发出健康信号的人这可能是因为你很健康并且经常锻炼,但你没有能力,知识或资源来知道如何以正确的方式在社交媒体上代表自己, Karen Levy说康奈尔大学的监视学者和社会学家典型的例子是 SAT 预科课程,由更富裕的学生参加参加这门课程的学生一开始并不一定更聪明,但他们知道该做什么以及如何准备以表明他们很聪明

除了更高保费的风险外,被监视——或者相信你被监视——会改变人们例如,在爱德华·斯诺登的爆料之后,维基百科用户修改了他们的搜索人们在观察下调整他们的行为,总是考虑我们生活中某个领域的行为将如何影响看似不相关的领域是有实际意义的如果我们说我们将根据你与谁交往来判断你,那必然会妨碍你与谁交往或你愿意透露什么,利维说这是一项核心的宪法权利,即说话和结社如果我们开始通过制造恐惧来侵犯这一点,那将是一个巨大的决定

乌德尔同意如果您担心您使用的信息将被保险公司对您不利,并被用来提高他们向您收取的价格,那么这可能会限制您使用的信息类型,她说如果你认为他们会知道你加入了 Facebook 上的心理健康支持小组,也许你不会加入那个心理健康支持小组,那将非常糟糕

在没有广泛的法律限制使用这些公共信息的情况下,通常的解决方案是要求透明度全国保险专员协会的一位发言人表示,从监管的角度来看,公司在使用新算法和新数据集时告知消费者以及这可能会如何影响事情非常重要

一些,如马萨诸塞州互助人寿保险公司,正试图引起注意MassMutual 最近创建了一个消费者工具,可以让客户了解不同的数据如何影响人寿保险风险但根据德保罗大学法学教授夏洛特 Tschider 的说法,由于商业秘密和知识产权,组织永远不会完全分享其承保过程的细节他们没有告诉你计算的确切内容,她说,而且我不确定详细披露算法的工作原理是否有用

大多数消费者不会理解这项技术,而且在没有权力的情况下,透明度所能达到的效果是有限的一些讨价还价就是 Tschider 所说的粘附合同,其中一方拥有比另一方大得多的权力我们无法与隐私政策进行谈判,如果我们真的需要使用该服务,世界上最透明的政策也无济于事

纽约人寿保险委员会负责立法和监管事务的董事总经理黛安·斯图托表示,在纽约,每个人都在尽职尽责以了解不歧视意味着什么有些人比其他人更容易遵守,结果可能是某些公司决定不再在纽约提供算法承保我们希望能够提供这些程序,因为我们认为它们是未来,所以我们正在努力处理细节并试图弄清楚这意味着什么,Stuto 说

一种选择可能是进行算法影响评估并运行类似于 Udell 描述的测试甚至可能要求私营公司进行这些评估,这意味着要提出以下问题:公司使用哪些类型的数据以及为什么使用你在测试什么仅共享代码是不够的,Selbst 说他们需要能够证明他们测试了偏见,以及考虑了哪些因素

他和 Swedloff 都同意,要求公司检查他们的做法是同意向某些团体收取更多费用的第一步 影响评估中最重要的事情是了解公司所经历的基本原理,并确保他们实际上正在思考并尽其所能做好功课,Selbst 继续说道我们不同意什么时候可以歧视,什么时候不可以,部分原因是我们没有关于正在发生的事情的完整信息 我们不明白导致这些算法的决策是什么,他补充道 一旦公众明白这一点,我们就可以进行更理性的辩论

泰康保险集团创始人,董事长兼首席执行官陈东升表示,通过“幸福有约”产品的长期投资,形成复利现象。这样一个服务体系,生态体系,完全是中国的首创。这个创新最重要的部分是重构了人寿保险的资产负债表。“幸福有约”既是保险的长期投资年金产品,同时又是养老社区的入住函,从而改变了人寿保险不产生批量高净值客户的历史。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。