2024年11月26日

最新调查显示,人工智能用户对数据隐私的担忧激增

Photo of Massimo Noro, Business Development Director, STFC, John Leake, Business Growth Director, Sci-Tech Daresbury, Lorna Green, CEO, LYVA Labs, Dr Angela Walsh, Business Development, STFC Daresbury Laboratory, Ivo Kerkhof, Chief Operating Officer, LYVA Labs.
  • 54%的消费者不知道人工智能工具收集了多少个人数据
  • 71%的人工智能用户后悔与人工智能工具分享他们的数据

利物浦城市地区的数据隐私软件公司Syrenis的一项新研究发现,71%的人工智能用户在发现他们分享的数据程度后,后悔与人工智能工具分享他们的数据。

总部设在国家科学与创新园区,科学技术达斯伯里,Syrenis将Cassie推向市场:一个同意和偏好管理平台,为全球大型组织集中管理超过12亿的客户记录。

隐私软件平台处理大容量、复杂的数据,确保组织的同意数据在整个技术堆栈中是完全可审计和最新的。North West的软件即服务(SaaS)业务为制药、银行、汽车和零售领域的一些全球最大品牌提供服务。

当涉及到人工智能时,同意是一个至关重要的因素。消费者需要觉得他们可以信任品牌的数据,但他们信任人工智能吗?

Cassie报告说,大多数消费者不仅后悔与人工智能分享他们的信息,而且54%的人甚至不知道他们的人工智能工具收集了多少个人数据。

这是根据Cassie的研究报告《人工智能权衡》中的数据得出的,该报告收集了美国31个州600多人的回复。虽然报告发现71%的人工智能用户后悔与人工智能工具分享他们的数据,但报告还显示,79%声称不使用人工智能的受访者承认,他们并不完全确定哪些工具是人工智能驱动的。

该报告强调,随着人工智能越来越融入日常生活,人们对它的担忧日益加剧。许多消费者担心,潜在的隐私侵犯可能会使他们面临未经授权的数据存储或泄露等风险,作为回应,用户越来越多地要求提高人工智能运行方式的透明度和控制。消费者团体越来越多地要求明确披露人工智能的使用时间,以保护个人信息。

事实上,89%的消费者认为人工智能本身并不坏,但需要更多的监管,如果有更严格的监管,79%的消费者更有可能选择加入数据共享。

Cassie的创始人兼首席架构师Nicky Watson评论道:“人工智能的世界正在发生变化,围绕隐私和数据的规则似乎一直在变化。在使用人工智能工具时,消费者越来越难以追踪他们的个人数据是如何被使用和存储的,这导致个人在网上做决定时缺乏信心。

“为了解决这个问题,公司在其平台上使用人工智能时需要完全透明,在人工智能出现时通知消费者,并在获得同意之前准确解释技术将如何使用他们的个人数据。

“随着智能技术在家用电器、汽车和一系列新创新中的发展,我们的合规管理对于帮助企业驾驭复杂的数据隐私世界至关重要,确保消费者完全控制自己的个人信息,确保企业合规。”

达斯伯里科技大学的业务增长总监John Leake补充道:“在达斯伯里科技大学的校园里看到如此重要的、有主题的研究是令人欣慰的。Cassie是校园内越来越多的公司和组织在各个领域开发和应用人工智能解决方案的关键部分。人工智能已经在许多方面让世界变得更美好,但围绕这项技术的潜在陷阱的透明度是必不可少的。

“虽然Cassie可能位于利物浦城市地区,但其合规管理工作在世界舞台上运作,而这样的研究可以帮助全球的企业和消费者应对使用人工智能的复杂性。”

分享这篇文章