用人单位自订“土规定”解聘员工为何违法******
近日,北京二中院披露了一起劳动纠纷案,用人单位以员工张某绩效考核不合格为由,与其解除劳动合同。法院判决公司属于违法解除,双方应继续履行劳动合同。(澎湃新闻1月31日)
根据现行法律法规,用人单位解雇员工,必须符合特定条件。劳动合同法规定,只有劳动者“在试用期间被证明不符合录用条件”“严重违反用人单位的规章制度”“严重失职,营私舞弊,给用人单位造成重大损害”等六种情形下,用人单位才可以单方解除劳动合同。此外,在劳动者“不能胜任工作,经过培训或者调整工作岗位,仍不能胜任工作”等三种情形下,用人单位虽然也能解雇员工,但必须“提前三十日以书面形式通知劳动者本人或者额外支付劳动者一个月工资”。
严格的法律条款,保护了劳动者的基本权益。但也有一些用人单位试图用“小动作”绕过法律规定。其中,自定一份内部规章制度,将绩效考核结果与员工去留实行挂钩,是很常见的做法。这些单位一旦遇到员工考核结果不达标的情况,就可能以“严重违反用人单位的规章制度”“不能胜任工作”为由,将员工“炒鱿鱼”。
北京二中院披露的这起纠纷也是如此。涉案用人单位早早制订了自己的绩效管理办法,规定企业有权对考核结果为待改进的员工予以解聘处理,无须支付任何补偿或赔偿。乍看上去,解聘当事员工,似乎是企业依规行事。但在法院看来,企业自订的“土规定”并不能改变这种行为的违法属性。
根据劳动合同法,用人单位在制定、修改或者决定直接涉及劳动者切身利益的规章制度或者重大事项时,应当经职工代表大会或者全体职工讨论,提出方案和意见,与工会或者职工代表平等协商确定,而不能自行其是,不把员工利益放在眼里。劳动立法之所以如此设计,正是为了避免用人单位自定“霸王条款”,侵犯劳动者权益。
一个用人单位,对员工最严厉的处罚,莫过于解聘开除。绩效考核反映的是员工工作实绩,并不能与劳动者违反用人单位规章制度混为一谈。一个绩效考核不合格的员工,就算“不胜任工作”,法律也规定了“挽救措施”,要求先“进行培训或者调整其工作岗位”,这也体现了法律以人为本的温度。
在这起纠纷中,员工张某既没有严重违反用人单位的规章制度,也没有犯多大的过错,给用人单位造成多重的损失,入职后若干年的表现,也都在“合格线”以上。数次考核结果为“待改进”,直接就“一棒子打死”,砸掉养家糊口的饭碗,于情于理于法,都说不过去。
基于现实生活的丰富性、立法的抽象性,任何法律条款都不可能穷尽一切现象,劳动立法也是如此。但保护劳动者合法权益,从来不是一句空话。在这起劳动纠纷案件中,法院通过掷地有声的司法判决,明确员工考核不合格不是解除劳动合同的充分理由,为用人单位划定了一条清晰的法治红线,张扬了从严保护劳动者权益的立法精神。(中国青年报 刘婷婷)
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。