受监督机器学习机器学习 (ML) 涉及训练一种算法,根据输入输出对的示例将输入映射到正确的输出。一个核心假设是,您用来训练的示例可以很好地代表您将来将看到的案例。COVID-19 的巨大影响意味着这一假设不再成立。过去的数据不再代表未来。
为了应对这种转变,公司部署了三种方法
ML 模型拟合不足:如果公司不改变其机器学习方法,那么他们最终会 WhatsApp 数据 过度拟合模型,因为过去的例子不再能很好地代表未来。公司缓解这种情况的一种方法是故意让模型拟合不足。对他们来说,一个适度但可靠的模型比一个在纸面上看起来很棒但会导致意外的模型要好,例如人工审核队列被淹没或更多的退款和欺诈。
基于规则的模型:一些公司将他们的机器学习系统恢复为基于规 把稻草人收起来 则的系统。这些系统需要更少的历史数据,并且需要更多的人类直觉和监督——对于试图应对疫情突然起伏的团队来说,这是一个诱人的选择。然而,这种方法也需要多个步骤进行验证,这可能会影响用户体验。
人工审核
其他公司很早就意识到他们需要进行更多的人工审核,但由于 相关的休 勒科尔尼通过视频发表讲话 和招聘挑战,他们不能仅仅雇佣更多人。取得成功的公司是那些通过为现有团队提供更好的培训和工具来更好地利用现有团队的公司。依靠人类判断是他们应对新欺诈模式的最佳方式。然而,组织使用 危机 印度手机号码 促使 机器学习来阻止欺诈是有原因的。这不仅是因为扩大人力队伍的难度,还因为机器在检测模式方面更优秀、更快。人类无法分析足够的数据来牢牢掌握正在发生的欺诈模式。
在疫情期间,那些在人工判断方面表现出色的公司更有能力开始为未来构建更好的机器学习模型。但公司需要多长时间才能拥有足够的训练数据来重新开始构建机器学习模型呢?