公司需要您的许可才能使用您的数据
公司完全无视这一要求
选择退出 Slack AI 培训
另一个需要关注的隐私问题
人工智能无法自行思考;它需要大量的数据进行训练。当您向生成式人工智能提问时,它创建的输出类似于从互联网上抓取的训练数据。这就是为什么当下每家公司都想要记录您的所有交互操作并扫描您的文档,因为他们需要更多数据!
公司需要您的许可才能使用您的数据
基于用户数据集成人工智能的服务有 Slack、Grammarly 和 Stack Overflow,以及最近的 LinkedIn。还有更多的公司在效仿,所以当您最喜欢的应用程序或网站为您提供人工智能功能(以能够使用您的使用数据来喂养他们的人工智能模型为代价)时,不要感到惊讶。
幸运的是,那些希望使用您的对话、文档和其他数据的公司,若要把这些用于除原本目的之外的任何用途,都需要得到您的许可。
公司全然忽视了这一要求
不幸的是,在公共数据方面,许多公司完全忽视了这一点。多家人工智能公司在未经作者许可的情况下,被发现通过抓取公共社交媒体帖子来进行训练 人工智能模型。
其他公司通过悄悄更新其服务条款和隐私政策来遵循数据隐私法规,但除非您经常查看它们,并在添加人工智能培训条款时删除您的账户,否则您很可能不知道您的数据现在正以这种方式被使用。
选择退出 Slack AI 训练
Slack 还算友好,允许您选择不让您潜在的敏感对话被用于训练它的 AI,但他们没让这事变得容易。
与其设置一个复选框或按钮来告知他们不能使用您的数据来训练其 AI 模型,您得让您的 Slack 工作区所有者给他们的支持团队发邮件(是的,真的)。您需要给feedback@slack.com发一封邮件,邮件主题为“Slack 全球模型选择退出请求”,以此来选择退出。
又一个需要留意的隐私问题
与大多数网络安全和隐私问题一样,您最好的保护方式就是保持警觉。如果您使用的产品具有人工智能功能,那么很有可能它会利用您的数据来为其提供动力,因此在应用程序的设置里到处找找,瞧瞧您能关闭哪些侵犯隐私的功能(或者,查看其文档,了解他们设计了哪些麻烦的方式来企图阻止您拒绝给他们提供数据)。
除了 AI 之外,如果您希望让您的数据更加私密和安全,还有 一些能让您快速提高网络安全的办法。
热门跟贴