Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 1|回復: 0

监管丛林——招聘中的人工智能

[複製鏈接]

17

主題

17

帖子

53

積分

註冊會員

Rank: 2

積分
53
發表於 3 天前 | 顯示全部樓層 |閱讀模式
到目前为止,几乎我们博客的每一位读者都应该清楚,人工智能 (AI) 已经成为公共话语中不可或缺的一部分。正如我们在此处所述,人工智能受到数据保护法以及人工智能条例(AI-VO)的特殊要求。今天我们想用人力资源领域的一个案例来说明,对人工智能系统在个案中的评估是相当复杂的,有时会产生奇怪的结果。

人工智能在招聘中的应用
特别是在招聘方面,通过使用人工智能可以实现各种优化选择流程的可能性。即使在设计招聘广告时,人工智能也能够分析历史数据(例如成功填补的职位)并建议措辞以增加吸引合适申请人的可能性。可以自动检测和调整可能令人反感的术语,例如针对性别或过于技术性的语言。此外,通过分析申请人数据和市场趋势,人工智能可以推荐哪些技能、资格和福利特别相关,以增加广告的吸引力。

此外,还可以向潜在申请人提供个性化广告。通过算法,人工智能可以根据候选人的在线活动、简历或社交媒体资料分析哪些候选人可能对某个职位感兴趣。这样,广告就会针对真正适合该角色的人。动态内容也是可以想象的。人工智能可以实时调整广告以反映目标受众的特定兴趣和偏好。例如,营销职位的广告可能会根据潜在申请人是否具有数字营销或传统营销经验而有不同的重点。

在选拔申请人方面,人工智能的使用也是可以想象的。例如,可以分析简历和求职信以确定相关资格、技能和经验。系统还可以将工作要求与申请人的数据进行比较,并对最合适的候选人进行排名,但最终的决策权仍保留在人类手中。如果有相关数据,此类系统也可能会考虑软技能或文化契合度。还可以使用人工智能分析和评估视频面试或在线评估的潜在优势和劣势。

人工智能法规框架内的人工智能系统分类
为了将这样的人工智能系统归类到人工智能法规的监管丛林中,我们将在本文中重点评估根据《条例》这是否是一个高风险系统。 6 人工智能监管。这应该已经足以让每一位读者意识到人工智能法规的不透明性。

根据《人工智能条例》第 6 条第 (1) 款,受审查的人工智能系统属于高风险系统,在《人工智能条例》下具有相应广泛的义务目录,但前提是

人工智能系统被用作受人工智能法规附件一所列协调条款约束的产品的安全组件,或者人工智能系统本身就是此类产品,并且
该产品或人工智能系统本身需要接受第三方合格评定,以便根据这些协调规则投放市场或投入使用
如果您查看附件一中的规定,您会发现一些听起来很悦耳的指令,例如“关于休闲船舶和个人水上交通工具的指令 2013/53/EU […] 以及废除指令 94/25/EC”。如果怀疑人工智能系统将被用作受本指令约束的产品的安全组件,则必须根据本指令进行审查。

由于这些指导方针通常缺乏清晰度和易理解性,因此第一步已经非常耗时且占用资源。

至于招聘工具,它们不受附件一下的协调规定的约束。然而,根据人工智能法规第6条,瑞士商业传真列表 对于何时可能存在高风险系统,还有第二种可能性。

法规之上的法规
根据《人工智能法规》第6(2)条,除第1款所述的系统外,《人工智能法规》附件三所列的人工智能系统也被视为高风险。

其中包括用于生物特征识别、执法或基本公共服务的人工智能系统等。

第四项还包括就业和人力资源管理领域的人工智能系统 。这可能与招聘领域的人工智能系统相关。

在招聘中使用人工智能系统进行上述目的已经属于第 4 条规定范围。 a),其中明确列出了用于发布有针对性的招聘广告、查看或筛选申请以及评估申请人的人工智能系统。

然而,现在如果有人认为这意味着该系统被归类为高风险系统,并且现在可以履行《人工智能法规》规定的义务,那就错了。

相反,现在正在适用《人工智能法规》第 6(3)条中的例外情况。据此,尽管人工智能系统属于附件三的范围,但如果它“不会对自然人的健康、安全或基本权利构成重大损害风险,尤其是不会对决策过程的结果产生重大影响”,它就不属于高风险系统。

如果满足法律文本中随后列出的条件之一,情况就会如此。对于我们在招聘中使用人工智能的案例​​,点 d) 可能与此相关,因为人工智能系统“旨在执行与附件三所列用例目的相关的评估的准备任务”。

这里可以说,使用人工智能系统发布个性化招聘广告以及评估或预分类申请文件,是为根据人工智能条例附件三在人事管理框架内做出最终人类决策做准备。

结果是:尽管从根本上来说属于人工智能法规附件三的范围,但相应的人工智能系统并不是高风险系统。

就这样吗?
那么分类就到此结束了吗?但当然不是,因为只要有例外,就总会有至少一个例外。这可以在《人工智能法规》第 6(3)(s)3 条中找到。

据此,如果要测试的人工智能系统对自然人进行分析,那么它又是一个高风险系统。对于“分析”一词的定义,参见第 14 条。 3 No. 52 AI-VO 引用了第 3 条中的定义。 4 第 4 条 GDPR。

根据该定义,当“个人数据被用来评估(自然人的)某些个人方面,特别是分析或预测与工作表现、个人偏好、兴趣、可靠性、行为(……)有关的方面”时,就会发生分析。

这可能取决于AI系统在招聘中的应用方式。虽然这似乎并不适用于创建招聘广告的建议,但如果使用人工智能系统根据这些个人方面预先选择申请人,或根据个人兴趣为特定人定制招聘广告,则似乎有必要审查这一反向例外。

结果是:根据预期用途和设计,所使用的人工智能系统确实可能是人工智能法规所定义的高风险系统。在这里,就像律师经常做的那样,必须根据具体情况做出决定。

任何希望《人工智能条例》能够对人工智能系统进行清晰、明确的分类的人,都会被《人工智能条例》第 6 条的规定打消这一念头。

结论
《人工智能法规》及其例外、反向例外和附件、协调条款和其他欧洲法律行为之间的相互作用并没有简化人工智能系统和模型的开发和应用,反而给企业带来了进一步的官僚负担。

在根据《人工智能条例》第 6 条审查人工智能系统的分类时,人们不可避免地会想起阿斯泰利克斯和奥贝利克斯以及他们对 A38 通行证的追捕。 《人工智能条例》第 6(5)至(8)条几乎具有威胁性,进一步强化了这一点,根据该条,欧盟委员会打算为《人工智能条例》第 6 条的实际实施提供指南,以及一份全面的实际示例清单,并有权根据《人工智能条例》第 6(3)条第 2 款的规定,增加或修改对高风险系统分类的其他例外情况。

人工智能法规的既定目标是创建一个安全、简单的内部数据市场,从而使“欧盟制造的人工智能”成为创新的驱动力,但这肯定无法通过这种方式实现。相反,人们担心人工智能法规和随之而来的官僚主义的增加将成为创新的阻碍。

我们很乐意为您提供有关人工智能法规整个监管丛林中艰难道路的建议。您还可以在此处找到更多信息。



回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|GameHost抗攻擊論壇

GMT+8, 2025-5-15 07:49 , Processed in 0.922052 second(s), 19 queries .

抗攻擊 by GameHost X3.4

© 2001-2017 Comsenz Inc.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |