加入收藏在线咨询
位置:网站首页 > 新闻传媒 >

首页-麒麟网平台注册-首页

作者:admin时间:2020-09-16 16:15浏览:

  首页-麒麟网平台注册-首页_4981002_交汇点讯 近日,一篇名为《外卖骑手,困在系统里》的文章火爆网络。指派接单,准时送餐,保持好评,往复循环。为了生存,夹在服务提供方和消费者之间的外卖员们不得不冒着生命危险“追赶”系统时间。一些人认为,“不断缩短的系统预计送达时间”正“压榨”着外卖员,使他们成为“和死神赛跑的人”。信息时代,算法究竟是一个怎样的存在?其带来所谓“科技进步”的背后,是否也将无数和外卖员一样的人“困”在其中?未来,算法将留给人们多少温度?

  如何才能快速订购一份两公里以外饭店里刚出炉的午餐?对于消费者来说,在外卖平台上付款下单,只需等待短短30分钟即可。从下单到送达的30分钟里,真正“紧张”的是进行着一系列庞杂运筹的外卖系统,而这其中,算法是决定系统性能的核心一环。

  “计算机做任何事背后都有算法在支撑。算法可以帮助完成一些比较‘难’的任务。”南京邮电大学计算机学院、软件学院、网络空间安全学院教授李云告诉《科技周刊》记者,以外卖系统为例,分配送餐骑手,计算最优送餐,预估送餐时间等这些任务直接决定了一个系统的能力上限。算法是为需求服务的,系统开发人员会根据不同的任务需求去制定不同的算法。例如对于庞大的订单数量,系统需要具备大数据快速处理算法;为了提高骑手的派送效率,系统需要具备最优路径选择算法;为了让顾客有良好的使用体验,系统还会用推荐算法去迎合不同用户的口味等。譬如日订单量超过4000万单的美团外卖,其智能调度系统每小时路径计算可达数十亿次,换句话说,每一个成功送达的订单背后都意味着庞大的计算量和算法模型。

  为了能够更准、更快、更智能,系统中的众多算法都需要不断更新升级。随着需求的增加,新的算法也会持续地加入系统中。那么,它们如何才能更好的“感知”真实世界?答案就是:不断与外界环境进行信息交互。李云解释,系统需要通过各种输入设备(如传感器等)来获取真实世界的信息,经过处理后得到的信息将被传递给用户,根据用户的反馈去生成新的信息,这个过程以串行或并行的方式一直持续下去。

  以外卖骑手所使用的接单送餐系统为例,骑手可以观察手机软件上的待处理订单(信息从系统流向用户),并选择订单进行配送,在骑手做出选择后(信息从用户流向系统),系统使用算法计算出合适的路径和配送时间等信息,再次送到骑手的手机上进行显示(信息从系统流向用户)。“可以说,外界的信息输入为系统注入了新鲜的血液,让系统‘活’了起来。”李云表示,为了让系统在短时间内得到最优解,我们可以通过各种优化方法来优化评价模型性能的指标。

  推送喜欢的新闻资讯、推荐附近的美食、浏览网页时弹出某一广告可能是自己不经意间搜索过的话题……“基于用户推荐算法,系统预测用户未来的行为,从而推荐用户最可能买的产品,而不是最适合的产品。一些系统会通过用户行为习惯进行人物画像,为支付意愿高的消费者定高价,而给支付意愿低的消费者打折。在现实生活中,很多不必要的“剁手”正是来源于这种‘大数据杀熟’。”江苏警官学院计算机信息与网络安全系计算机应用教研室副主任洪磊博士在接受《科技周刊》记者采访时指出,为我们提供极大便利的算法并非完美无缺——它不仅可能出错,甚至还会产生严重的歧视问题。

  目前已被国际上公认的是,算法歧视突出表现为以下几类:价格歧视、性别歧视、种族歧视等。一些人开始担忧,我们是不是在一定程度上被算法左右?AI是否会在未来反过来统治人类?

  东南大学计算机科学与工程学院、软件学院院长,人工智能学院执行院长耿新告诉《科技周刊》记者,探究算法歧视的本质,其实属于社会结构性歧视的延伸。因为算法的有效性建基于大量数据材料分析,而这些材料大多都源自社会现实。当人工智能算法从数据中学习时,如果来自于社会现实的数据含有“偏见”,那么不做特殊处理的话,算法就可能学习到这种“偏见”。

  例如,2020年7月2号美国麻省理工学院的Tiny Images数据集因涉及种族歧视、性别歧视等而被宣布永久下线。该数据集数据内容主要来源于大量搜索引擎整合的数据,由于数据量比较大,同时图像尺寸又比较小,数据收集者无法手动清除这些有歧视标签图片。于是,网络中的歧视就这样传递给了基于大数据的智能系统。

  那么,外卖小哥、网约车司机等这样一批被算法“支配”的人们,是否真正被“困”在算法中。“我认为,算法‘支配’人这个观念有一些偏颇。算法被设计的初衷肯定用来‘服务’人的,因此也就没有必要害怕被‘困’在算法中。”李云认为,不可否认,在目前的外卖、网约车平台上存在不合理现象。但是反思这些现象的产生原因,其实是因为算法在设计之初没有很好地兼顾各方的利益。“算法的设计”在本质上都是单纯的,不管是对性能的追求,或是对效率的追求,各个领域、各个任务都有明确的衡量指标。一些看起来“绑架”人的行为,实际上可能是受其他因素(如政治,经济和文化等)的影响。对此,耿新也表示:“就我看来,算法可以拥有更多的温度和人文关怀,只是看背后的公司与资本是否愿意这样付出。”

  时间预估,确保订餐者等待的时间最短;路线规划,确保外卖员送餐的路程最近。系统调度策略通过庞大的历史数据以及实时的特征信息来进行动态调整,从而让外卖订单全流程更高效。然而,“越来越短的送餐时间”和“越来越难的算法优化”凸显了平台系统暗藏的“不人性化”。“你愿意多等五分钟吗?”商家这样呼吁着,在这场“安全”与“准时”的博弈中,默默让消费者为“被缩短的时间”买单。然而,冰冷的“算法”如何才能更好地为人服务?技术和法律层面的“双向驱动”或许比用户主动延时来得更“贴心”。

  “算法是人制定的,所以优化算法的主动权主要掌握在算法的设计者手中。”李云认为,我们可以通过更加健全的法律法规来约束平台算法构建的要求,兼顾各方的利益,使得算法更加人性化。“算法既然是为人服务,那么总会有优化途径是在满足用户需求的情况下,同时兼顾外卖员的实际工作情况,促成双赢的局面。”

  “长久以来,我们在算法的问题上一直存在一个误区,以为算法是有自我意识的,其实不然。算法可以被用来追求高利润,算法也可以用来追求公平与尊严。”南京师范大学法学院副教授、中国法治现代化研究院研究员杨建告诉《科技周刊》记者,算法被用来追求不限制的高利的时候,剥削就会严重,竞争就会残酷,侵权的问题就会以新的形式越冒越多;算法也当然可以被用来追求公平与尊重,当算法被用于正确的目的,社会的不平等、教育的不公平、医疗的不均衡、交通的不安全等问题就可能得到很大程度的改善。很多幕后看似间接的法律主体其实应当被规定为相关法律关系的第一责任人。“换句话说,算法背后的人工智能学习其实有人的‘设定’和‘操作’。在这个高速运转和发展的社会里,想要适当慢下来,更需要规则的完善、法律的保障。如何给冰冷的算法注入人文关怀?关注重点之一就在于给算法输入意志的意志端的规制问题。”杨建说。

QQ:4981002
地址:浙江省杭州市西湖区
邮箱:4981002@qq.com