雅星娱乐登录-雅星娱乐官网

全球新闻业人工智能应用调查报告

admin

  AI(人工智能)、机器学习和数据处理的实际应用状况和其具备的潜力表明,它们将赋予新闻工作者全新的力量:发现、创造与连接。

  未来我们可以期待的是,新闻工作者能够通过算法进行“充电”,以更有效的新方式发挥人类擅长的技能。人工智能还会改变新闻编辑室,使其从单一性生产线转变为网络信息和参与中心,让工作者推动新闻行业进入数据时代。

  算法将为系统提供动力。但是,新闻中的人情味——来自新闻工作者的洞察和判断——将弥足珍贵。新闻界能否抓住这个机遇?

  互联网、社交媒体和移动通信为新闻业提供了新的工具和途径。现在,人工智能将带来新一次技术飞跃。但它同时也会带来经济、伦理和编辑层面的威胁,而我们是否意识到其中的问题?在21世纪,依靠算法获得增强的新闻工作者,以及使用人工智能的新闻机构,都在进入另一大过渡阶段。新闻如何维持其公共价值?

  为了了解新闻媒体对人工智能的看法,以及新闻界接下来的可能做法,伦敦政经学院的查理·贝克特教授率领团队进行研究并发布了《全球新闻业人工智能应用调查报告》。

  报告基于对来自32个不同国家的71个新闻机构在人工智能(AI)和相关技术方面的态度和使用情况的调查,邀请了许多正在使用AI的记者回答以下问题:对AI的理解、在新闻编辑室中如何使用AI、对AI新闻业潜力及风险的看法、对AI伦理的了解。除此以外,研究团队在新闻业相关会议上还进行了采访,与新闻业相关从业者沟通交流,以作为补充。

  在大多数新闻编辑室中,对于如何发挥AI的作用尚不确定。临时或灵活的策略可能是一个现实的选择,但这意味着很难进行系统规划。正如我们将在第四章中看到的那样,人们对关于人工智能在其他行业中的真正潜力仍争论不休。极端的情况是有人对AI的影响持怀疑态度:

  这反映了AI技术会扩大处于不同规模、资源下新闻机构之间的不平等。变革即将到来,但分布不均。

  受访者认为使用AI最大的挑战是资源、知识或技能,但与其同样重要的是文化抗拒:害怕失业、改变工作习惯以及对新技术的普遍敌视。整个新闻机构缺乏对AI知识,以及缺乏战略管理认知。但是,最重要、最具体的因素可能是缺少了解该技术及其与新闻编辑室之间关系的专家。

  其他问题也很重要,例如所提供技术的质量或相关性,以及道德伦理担忧(例如过滤气泡),责任和法律问题(我们将在第三章中详细介绍)。

  (其他挑战包括:数据质量、道德问题、复杂性、缺乏技术基础设施、语言障碍、现有AI技术的准确性较低)

  令人鼓舞的是,人们并不认为这些挑战是无法被解决的。人与复杂的新技术之间存在知识鸿沟并不奇怪,但它并不仅仅意味着信息短缺。受访者认为这是一种进步障碍:

  “人们对‘AI’一词没有共同认识,而这在实施机器学习算法时会有所帮助。缺乏共同认识不仅会导致错误的预期,还将使人们难以寻找AI的合适用法。

  “我认为人工智能的最大问题之一是围绕这个术语传达的想象力和愿景。大多数人都是从科幻和投机活动中了解人工智能。我们希望公司的其他部门不会用到AI技术,这将有助于避免任何不必要的讨论,因为人们担心AI会使他们失去自己的工作。”

  “关键问题在于文化挑战,因为AI确实会减少工作流程,从而给新闻编辑室中的人们带来更多时间。但这也意味着要提高生产率,这是很多人可能并不希望看到的。这些文化障碍需要在内部协作过程中加以解决:计算机科学家和记者之间存在文化鸿沟。

  对于计算机科学家来说,使用算法个性化等技术是直接明智的选择,但记者更关注技术带来的编辑责任、过滤气泡等问题。在出现解决方案之前,我们需要让所有人参与其中,彼此讨论交流。我们(AI团队)目前每月都会与编辑举行会议,以使每个人都参与其中,提出我们的想法并要求反馈。”

  人工智能不是随随便便就能提高效率和创新的神奇事物,它需要耗费大量资源。这可能会导致人们不愿使用AI:

  “AI的构建和管理成本很高。确保数据干净和有效的机器学习需要做大量的工作。这是大公司才有可能承担得起的工作,他们可以开发人工智能服务并将其出售给较小的公司。”

  过去,作为一个行业,新闻媒体一直倾向于在不向记者提供更多技能或经验的情况下将其提升为管理人员。近年来,随着各种技术和市场的混乱,这种情况正在改变,但受访者仍然强烈地认为,管理层没有能力甚至不了解AI带来的问题:

  “我们遇到了很多挑战:怎么知道我们应该自动化什么?最先进行哪个AI项目?与所有报道一样,你必须权衡受众的需求、报道的影响、新闻编辑室的收益等等。缺乏对人工智能的了解会造成非常实际的文化问题:在竞争激烈的市场中,你要为效益负责,因此很难聘请有才华的数据工程师和科学家。”

  人工智能技术有自己的术语和逻辑,且通常是为其他行业创建的。对于某些新闻编辑室来说,投资AI知识和技能是不值得的。虽然有时候他们也会面临语言方面的问题,但数据质量才最重要:

  “对我们想要做的许多AI应用程序而言,它们都需要高质量、标签明确的数据,但是我们目前还没有这样的数据,标记这些数据需要大量的资本投资。”

  受访者的反馈表明,需要提高新闻编辑室和整个行业的AI素养水平并解决文化问题。新闻机构需要建立一个技能库来创建相关有效产品和系统,以及衡量成功或失败的指标:

  “整个媒体行业的转型实际上才刚刚开始:没有人知道如何建立并重新定义组织文化,使其转变其核心业务和产品,从而在新兴的、人工智能驱动的世界中蓬勃发展。整个组织面临的最大挑战是了解当前业务及其活动的优化,以及创新和建立未来业务所需要的是什么。优化和创新需要不同类型的指标和KPI来评估哪些有效、哪些无效。简而言之:如何以最有效的方式协调资源并用于以后的发展。”

  对于已经习惯应对变化的行业而言,其中一些障碍并不陌生。尽管技术培训是艰巨的任务,但假如新闻媒体不想落后于其他行业,就必须要采取行动,哪怕去寻求外部支持。

  从我们的调查中可以明显看出,新闻编辑室普遍缺乏AI战略规划。该策略将始终根据新闻机构的性质及其到达的阶段而有所不同,但这些才是研究中需要考虑的关键因素:

  AI可能部署在非常狭窄的领域,例如某些功能的自动化。但是,即使将其部署在特定领域,进行整体规划也将使AI最有效地发挥作用。受访者认为孤立的工作总是会受到固有限制,使用一种战略方法必须考虑整个新闻编辑室。AI需要新闻编辑室有技能、知识基础、明确的角色定位、系统的评估以及将技术与编辑或营销联系起来的文化。

  人工智能将改变新闻编辑室的工作方式及其与观众和收入的关系。正如我们将在第三章中看到的那样,这同样会带来道德问题以及财务影响。在第四章中,我们将了解新闻组织如何制定这些未来战略。

  人工智能改变了新闻的创造和消费方式,但它如何改变新闻本身?什么样的内容会被生产出来,又如何改变新闻与个人消费者和社会的关系?任何新技术出现,人们都会担心它对业内人士和普通民众的影响。人们的期待和恐惧往往基于错误的前提和猜想。

  纵观媒体的历史,我们知道印刷术、广播或电视等“新媒体”也引发了乌托邦式的期待以及反乌托邦式的道德恐慌。技术不应被孤立地看待,但它的影响确实超出了实际问题。人工智能引起了人们的广泛关注,不仅因为其力量和潜力影响新闻的方方面面,更是因为它是一种复杂而隐蔽的技术。

  受访者一般都精通技术,所以相对于新闻机构或其他利益相关者,他们可能不太担心人工智能的负面影响。对人工智能的熟悉也意味着他们确实对新闻业受到的影响有深入的了解。他们谈到了六个关键领域,这些领域都是相互关联的:

  本章介绍了新闻编辑室使用的人工智能道德和编辑政策。这是我们采访新闻编辑室得到的内容,而不是有关技术或解决方案的详细指南。我们对“道德”的定义较为广泛:与可信度、准确性、问责制和偏见等问题相关的思辩。“编辑政策”是围绕新闻“质量”产生的广泛问题。

  人工智能如何改变内容的标准或性质,以及对受众的社会价值?新闻业本身具有悠久的道德历史,在前所未有的政治和经济压力下,公众对新闻的信任并不是很高。与此同时,关于人工智能的公开辩论有:算法是否歧视某些人群?这项技术是否会导致大规模失业?社会如何对这项技术负责?

  来自新闻编辑室的受访者和我们讲述了人工智能如何影响他们与内容和受众之间的关系。我们同样就技术及其影响询问了他们对技术的责任或控制技术的态度,特别是那些提供特定工具和基础设施的科技公司。

  尽管它们确实触及了新闻学的思想和宗旨,但这些不仅仅只是哲学问题。它们也是实际的、直接的问题。例如,现在的世界虚假消息日益增加,可信度是保证用户信心和注意力的关键,这些用户很有可能会继续支持新闻编辑室的发展。

  “说到人工智能的影响,比起担忧,我其实觉得更兴奋一些。雅星娱乐登录目前有一些对人工智能的负面情绪,我反而认为这些技术将增强新闻编辑室的能力,并节省宝贵的资源,以便解决亟需新闻工作者关注的重大问题。”

  在新闻工作的某些领域中,可能在质量和数量之间存着在合理的取舍。新闻工作往往需要做出很多妥协:

  “特别是在机器创造新闻的早期,我们正在以质量换取数量,从整体上来说,它仍然提供了更多有价值的用户体验。我个人认为这是正确的事情。但显然,仔细选择这样操作的新闻工作类型十分重要。”

  大多数人相信,如果新闻机构坚持其道德和编辑立场,这种影响总体上看是有益的。这可能表明,受访者为具有良好历史声誉、注重可信性和公共服务的新闻机构工作。一些人认为,即使他们现在没有发现问题,但如果机构内部没有适当设立和监控人工智能,问题可能就会出现:

  “我现在并不担心。我认为关注数据偏见十分重要,同时也对新闻工作者和新闻机构经常考虑(或至少尝试考虑)工作中的偏见问题感到振奋。”

  最显而易见的问题是,使用人工智能节约下来的资金是否被重新用于编辑,或用于减轻新闻机构的财务负担:

  “最大的问题是,省下来的钱(如果有的话)是否会被用来进行新的投资,或是用来应对营业额减少的问题?”

  “‘低价值’新闻可能会更快被制造出来。声誉良好的新闻机构对故事进行的分析和验证可能将成为稀缺资源。”

  大多数受访者相信,节约下来的金钱将用于投资技术或提升新闻质量。然而,人们更担心AI会加剧新闻机构之间的不平等,从而影响媒体的多样性和“优质”新闻生产的可持续性:

  “关于新闻工作质量的最大问题是,与能够构造/购买和部署人工智能的新闻编辑室相比,缺乏相关资源的工作者可能会受到影响。换句话说,未来很可能会有一场军备竞赛,而只有资源最充足的新闻编辑室才能参与。”

  新闻机构认识到,他们面临道德选择。如果采取有利于短期目标的财务决策,他们可能会损害公众价值和新闻标准。显然,这取决于其企业文化,以及对“优质”的定义:

  “即便是被公众信赖的媒体品牌,也可能从错误的数据库中自动生成文章,可能导致虚假信息传播。一般来说,我们必须谨记,优质媒体不能只关注经济上的成功。如果训练机器学习算法的目标在于最大限度地提高收入,那么很有可能导致诱导性文章比调查新闻更加优先。因此,应该仔细考虑对哪些指标进行优化,以及如何维护质量标准。”

  “我对知名的媒体机构很有信心,我自己也在这样的机构工作。任何新的技术,无论再怎么自动化和电子化,总是会被滥用,我相信现在和将来都会有人利用这一点。尽管如此,真理是一种永远不会失去价值的商品,我相信大多数新闻工作者都会意识到这一点,并将使用人工智能来尽其所能地叙述线 算法偏见

  每种算法都可能含有某种“偏见”,就像所有的新闻都包含某种程度的“偏见”,这反映了的是生产背景。一般来说,算法偏见属于“生产型偏见”,即由于输入数据、数据训练和操作而导致的偏见。这些可能是非常技术性的因素,例如数据分类类别,但它们在确定内容的质量以及如何消费方面仍然具有重要意义。

  然后还有我们常说的“不公平”偏见,如种族或性别偏见。这种偏见不仅不被社会接受,而且还有道德、政治甚至法律方面的风险。所有系统都会含有偏见,因为它们反映了其创造者和使用者的意愿和立场。重要的是,如何意识到偏见的存在,以及如何优化管理、减少偏见。

  这意味着,处理道德和编辑问题要依靠系统战略。尽管受访者整体心态乐观,但的确有一半人担忧行业内的人工智能应用:

  “我担心新闻工作者过度自信,过度依赖算法,最终可能对受众造成伤害。目前在新闻业中存在许多使用人工智能并产生偏见的案例。训练有素的算法可能会对新闻业造成更大的伤害。”

  监控和纠正算法偏见需要高度的知识水平。不仅需要技术知识,还有在新闻编辑室的限制范围内应用该技术的时间和资源。新闻工作者还有向消费者进行解释的责任:

  “新闻业需要在使用算法和数据上保持透明。如果要使用算法,我们应该尝试阐明并帮助用户理解算法,并尽可能控制算法对用户的影响。”

  还有一个问题关乎新闻可信度,即新闻在打击虚假消息和促进良性公开讨论方面的作用。在针对虚假消息的斗争中,新闻工作者需要控制和信任自己使用的工具:

  “在发生政治攻击和虚假新闻时,使用AI导致的错误可能会使媒体信誉受到威胁。”

  还有人指出了人工智能技术和信息面临的更广泛的道德挑战。例如其在扩大(和打击)虚假消息不断增长的作用:

  “机器学习是生成“深度假货”和虚假内容的完美工具,这将是所有新闻机构和可靠媒体面临的主要问题。此外,内容验证将变得更加困难和(或)依赖于工具。我们需要机器学习工具来检测机器学习假新闻。”

  许多受访者强调,算法个性化可能进一步巩固所谓的“确认偏误”,即认知心理学家提出的概念:人们倾向于提供反映自己的信念和价值观的内容,而不是对自己的认知做出挑战。

  这是一个复杂且往往主观的问题。最近的学术研究表明,在线消费新闻的用户更容易接收多样化的内容,尤其是相对于拥有传统媒体消费习惯的用户。但无论绝对趋势或总体趋势是什么情况,受访者担心商业需求会突出所谓的“过滤气泡”、两极分化和冲突问题:

  现今社交媒体中的过滤气泡非常危险,但我们希望这个问题能随着时间的推移而得到解决,一方面通过更改算法、改进规则和标准以提升透明度,一方面希望我们的受众对此影响有进一步了解。

  许多受访者已着手解决这些问题,他们通过自定义人工智能以适应道德或编辑政策:

  “对于某些关键质量指标,我们的系统赋予其较高来源排名,如原创性(此来源是否专注于该主题?)、多样性(此来源是否提供独特观点或反映未被充分代表群体的声音?)、真实性(此来源历史上是否含有虚假消息记录?)。人工智能去偏见化,可能还有其他标准,包括情感和可读性。”

  受访者表示,这是说明“增强”新闻的一个好例子:人类的编辑洞察力与人工智能相结合:

  “为了防止用户陷入某种意识形态,我们纳入了“编辑评分”。这是由人工判断某话题的重要性,以提升新闻编辑室提供的内容服务。”

  “根据我们使用人工智能的经验,算法判断男女来源比例的结果非常不可靠;很难自动进行性别评估,特别是判断外国姓名。所以如果现在我们要做这样的事情,不使用人工智能会更好。”

  “我们正在努力去除训练数据中的偏差,但如果不能的话,应该把它们标注出来并告诉用户。如果我们无法识别数据集中的偏差(或偏差难以描述),那么该数据集(以及人工智能算法)不应该用于编辑中。”

  所有的新闻编辑室都有“偏见”。有些偏向性的作用是积极的,例如特别关注某种问题。然而,最近有这样一个热议,关于传统的媒体文化是否会导致编辑议题缺乏多样性,以及新闻编辑室是否与某些人群或公众关心的领域脱节。人工智能能否帮助我们发现本来会被遗漏的问题、故事或事实?人工智能是否可以帮助我们创造不受专业假设或规范限制的新闻报道?

  大多数受访者表示,他们还没有见过这样的纠正效果。他们的重点仍然在集中在算法或受众的偏见上,而不是新闻的“过滤气泡”。但只有极少的人表示,对人工智能偏见的质疑导致他们重新考虑自己的假设,并重新考虑读者的需求:

  “我认为,人工智能对揭露行业内已经存在的偏见和意外后果方面发挥着重要作用。我们有机会进行反思,思考我们如何制定决策,还有以更公平的方式“重新设计”决策。”

  “我们使用的工具(新闻标题测试、倾向模型和算法推荐)表明,我们认为读者可能感兴趣的内容与他们真正感兴趣的内容并不总是相符。我们对“严肃新闻”的认识存在很大的偏见,这不一定是用户想要的。”

  “新闻编辑室往往会认为新内容更具相关性,所以常常没有旧背景信息的内容。我们的个性化算法更擅长处理此事。”

  “我认为这是一个良性循环,彼此促进。人工智能使我们意识到我们的偏见,反之亦然。在新闻编辑室,编辑倾向于根据直觉和经验做出决定,而不是根据数据。人工智能让我们意识到,必须改变这种不良习惯。”

  我们将在下一章节进一步探讨,人工智能可能使新闻工作者重新考虑行业的基本概念:什么是信息?新闻工作者如何决定何为真实或重要?公众为什么使用新闻?人工智能有能力从更广泛的消息源中收集、整理和解释数据,但它能在多大程度上改革传统范式和陈规旧习呢?

  “人工智能使你质疑一切。人工智能模型的质量取决于建构和训练的人类。通常反映了新闻工作者对某些话题的了解和理解。我们小心翼翼地把人工收集新闻的标准应用于我们开发的人工智能工具上。还需要不断地重新训练人工智能并测试偏差,这也是我们流程的一部分。”

  更加了解流程这一趋势使得受访者提出将提高透明度作为解决方法,既避免算法偏见的损害,还可以建立公众的信心:

  “这始终取决于新闻机构如何决定解决问题:公开透明是关键。用户永远对内容的生成和发布有知情权。”

  新闻编辑室之所以能够更好地展示自己的工作,部分原因是新闻媒体面临直观的信任危机,以及大众对权威、可信、经过验证的新闻与网络虚假消息加以区分的愿望。对此人工智能可以提供帮助,因为它能显示哪些人消费了哪些内容:

  “知晓哪些用户看到哪些内容,并在一定程度上能够核查技术代替新闻工作者所做的选择。”

  “有必要开始考虑我们工作分配的透明度,以此获得公众的信任。无论是个体用户还是机构客户,算法都不应反映其过去或现时的偏见。我们必须深入思考内在偏见及其影响。”

  解决这个问题,意味着更多地关注新闻编辑室的标准意味着什么,以及如何展示高质量:

  “如果我们妥善设计和使用人工智能系统,我觉得完全不必担心质量或原创性问题。不过要想达到这一效果,我们必须阐明新闻质量。哪些新闻需要两个一手来源,而哪些一个就足够了?在道德层面,我认为沟通和透明度问题至关重要。为了不让读者失去对我们的信任,我们必须有效地说明哪些内容由算法创建,以及遵循了哪些原则。”

  “在人工智能助手的竞技场上,社交平台目前的隐私、选择、回声室等问题可能会被放大,这是非常现实的问题。”

  “从理论上讲,智慧的批评和开放的心态应该能够驱使新闻编辑室不断质疑他们的假设、数据和偏见——但在实践中很难做到,并且把这些编入代码就更难了。可能需要某种内部或外部的监督机构来定期检查新闻编辑室的偏见。”

  公开透明是一种美好的愿望,但是,除非它是工作体制的一部分,并且标准公开,否则是纸上谈兵。例如,美联社正在思考在风格指南中增加内容,以反映这些问题。但是有很多解决方法,例如保证内容本身的来源合乎准则。

  已有代码试图解决数字技术和新闻界提出的特定问题,如ONA社交媒体代码。现在人工智能需要新的代码或指导方针。保罗·布拉德肖(Paul Bradshaw)主张,建立有效透明度的一个关键因素是,新闻工作者要清楚人工智能的局限性和不确定性的程度。

  透明度做法可以借鉴金融和医学等其他学科。而且已有一些实际的方法可以使新闻编辑室更加透明化,例如在文章署名中标明人工智能编辑。这不是新闻工作者自己可以解决的问题,因为他们的许多工作依赖于高科技公司提供的基础设施而进行:

  “新闻媒体实际上没有对编辑指南和编辑工作的最终发言权。现有的技术平台及其算法已成为无所不能的编辑过滤器,新闻机构并不能真正直接对其产生影响。”

  我们也将在之后的章节中提到,这属于新闻业处理与科技公司关系中更广泛的顾虑的一部分。

  “自动化技术会使新闻报道中的“人类智能”减少,这可能会产生不可预见的后果。”

  这一隐患包括不同问题。我们已经解决了针对技术的文化敌意问题,打消了大家对失去工作的恐惧。但是,新闻业依然有许多隐患,雅星娱乐登录并且和算法的关系越来越大。一是新闻工作贬值导致新闻业地位下降:

  “如果内容是由人机合作甚至由人工智能重新整合,那么新闻对“故事大师”的吸引力是否会减弱?如果是的话,那么何时会产生影响?基础工作自动化是否会导致新闻基本概念衰落?”

  “在获得受众同意的前提下,我们可以尝试根据相似行为来个性化每个人的新闻源,提高我们的内容元数据的完整性,自动识别故事中的人脸、名字和有用的数据等。但是,我们认为有必要为每天做出的每个有意义的决定保持坚实的人文基础。”

  这是一种平衡术,但受访者明确表示,从一开始就必须将新闻的“人文价值”嵌入技术应用中:

  “新闻价值观和原则需要支配人工智能解决方案的发展,以确保影响是完全积极的。”

  “如果媒体过多地受到错误的技术指标驱动,可以鼓励新闻工作者尝试与机器人或人工智能推荐系统竞争。相反,耐心、毅力和好奇心是人类宝贵的品质,在新闻编辑室内应当得到鼓励。”

  在海量信息通过网络传播的世界中,在新闻中使用人工智能引发了整个社会的道德问题,而不仅仅是新闻行业的道德问题:

  “我过去看到的最大错误是,把技术融入社会看为简单的信息技术问题。实际上,这是一个复杂的社会问题。”

  科技公司有着不同的商业模式和公司文化,因此他们与新闻以及人工智能的关系也有着很大不同。谷歌、亚马逊、苹果、Facebook和微软等科技巨头都进行研发、产品创新以及提供新闻机构使用的基础设施。一些公司还资助新闻制作,为新闻编辑室或新闻教育和创新提供支持。

  出版商认为,这些公司与新闻机构抢夺广告收入、消费者的注意和时间。他们提供了发布新闻的设备和网络,以及许多对新闻生产至关重要的工具。他们对数据的胃口很大,在人工智能技术上的支出也很大。所以,新闻机构和受访者所描述的高科技公司之间,不可避免地存在矛盾。

  关系在不断发生变化。例如,在我们调查完成后不久,Facebook发布了“新闻选项卡”功能,该功能结合了人工编辑和个性化算法,对来自出版商的内容进行独立新闻提要策划,其中一些需要付费。谷歌最近也宣布将要改变算法,在搜索结果中展示更多的“原创”新闻内容。

  受访者普遍了解技术,并对其作用持积极态度。但有少数人公开表达了对科技公司的抵触:

  “Facebook和谷歌是人工智能公司,他们窃取消费者的注意力和广告收入,影响到了新闻行业。”

  受访者意识到,他们无法完全控制技术。新闻机构已经与科技公司合作,创建新的工具或系统:

  “大多数现成的解决方案都是大型科技公司的云API。这会对我们上传的数据造成影响,并使许多解决结果质量下降。这也导致新闻业对科技公司的轻度依赖。如果已经采取了某种解决方案,那么就很难从这一种切换到另一种。好消息是,数据模型和框架的品质都很出色。”

  例如,《纽约时报》和《国家报》利用开源工具Perspective来改进其评论审核,该工具由谷歌母公司Alphabet旗下的技术孵化器Jigsaw开发。受访者意识到,科技公司可能是下一个人工智能和新闻结合产品的始作俑者:

  “在未来, 任何“对话式新闻AI”都将由大型科技公司(如谷歌)生成,而不是新闻机构。”

  如果这些工具或系统需要符合新闻工作者的优先项和公众利益,那么科技公司和新闻机构之间的关系就变得至关重要。受访者提出了一系列改善关系的方法。这是很不平等的一点,因为科技公司拥有资金和技术知识,他们的价值观或优先级事项很也可能与新闻工作者不同:

  “推动新闻工作者和新闻业发展的因素——信任、影响力、增进理解、促进公民参与和对话——都很难作为这个行业可衡量的KPI指标。我们与技术合作伙伴对成功的定义不同,如何有效地合作?”

  “对于已成功利用人工智能,或者正在努力开发人工智能的科技公司,我希望他们能够去宣传用途并担任大使。人类社会过渡到由人工智能驱动的未来,科技公司至关重要。他们不仅要在正确制造人工智能上承担重大责任,还应该为创造健康的生态系统负责。”

  “对于新闻工作者来说,现阶段极其重要的工作是遵循大型科技公司的步骤,并尝试分析其算法。同样重要的是,科技公司了解这种新闻的重要性,并且愿意公开讨论。”

  “平台在训练、教育和创造关于人工智能的透明度文化等方面发挥着至关重要的作用。对于新闻工作者来说,这关乎信任问题,非常重要。”

  许多受访者表示因科技行业炒作而感受到压力。尽管不太情愿,但他们也认为科技公司在解决媒体技术道德问题和支持研究方面处于领先地位:

  “部分大型科技公司在公平公正和人工智能(如微软公司,在此投入了大量资金)方面占据领先地位,大多数大型科技公司在(学术)出版和分享方面做了很多实事,这推动了我们进步。”

  “通过云服务,科技公司使人工智能技术更加普及易用。但对于如何建立这一系列人工智能机器,他们并没有给出详尽的解释。他们应该公开数据集中的算法和偏见。”

  平台算法对新闻机构制定营销策略有很大的影响。随着近年来搜索和推荐算法发生变化,对科技公司最常见的要求是“公开数据集中的算法和偏见。”这不仅仅是一个商业问题。最近的学术研究认为,人工智能技术的作用正在改变“透明”的含义。在人工智能时代,值得信赖的沟通者意味着什么?对于公众来说,“机器”可以成为新闻来源。这听起来可行,但有些人认为这意味着,如果将某种责任转移到“机器”上,这项技术就会挑战新闻权威的核心。这就是为什么一些受访者希望采用共享、开源的方式来评估技术的内部运作:

  “科技公司已经提出用API以低成本展开人工智能实验,媒体公司的创新者对此都非常感兴趣。我希望能有更多的开源和离线项目可以让我们进行操作并做出贡献。”

  “他们有资源来改变现状:DeepMind和谷歌就是一个例子。但他们也会在数据和道德方面犯下严重的错误。我希望他们真诚地接受新闻领域中的问题,并为我们提供有意义的专业知识和支持,以探索大家提出的问题。我相信所有的主要平台也会从中受益:他们在新闻推荐和出版时可遇到了不小麻烦。”

  这是一个通病。新闻业在有关运作方式的公开辩论中表现不佳。公开透明可能损害其独立性。科技公司在采用透明度方面也进展缓慢。他们认为这是商业机密,泄露代码或算法可能是不良的商业行为。但受访者的总体态度是,需要进行更为坦诚的对话。围绕道德和编辑政策(以及商业问题)需要进行的讨论还有很多:

  “科技公司有能力也应该在创建工具时减少偏见,尤其是因为他们聘用了领先的人工智能研究人员,并在该领域建设了许多基础工具并发表了众多论文。我们希望“谷歌新闻倡议”和“Facebook新闻项目”一类的项目能够迎来更多的对话和资金的持续增长。最终,这些对话应该推动制定更好的策略和协议。”

  讨论道德、编辑政策以及人工智能的关系不仅仅是为了处理后果,产品开发过程中就应该加入这个环节。新闻工作者需具备一定的技术能力,不要把讨论推给开发者或技术专家。这个讨论必须始终将用户的观点考虑在内。

  道德/编辑讨论也需要考虑更广泛的社会影响——包括人工智能的好处。此事即将发生。举例来说,骑士基金会的“人工智能和新闻公开挑战”已采取了一系列举措,目的是识别和解决上述问题。本报告的受访者表示,新闻编辑室欢迎这种讨论。

  我们让受访者思考未来。如果你有资源,你接下来会做什么?人工智能的什么功能对你的机构最有帮助?我们也想知道怎样才能达成这种效果。最后,我们要求他们思考,如何改变整个行业,以及如何改变新闻本质。在我们的调查中,各家新闻机构还处于采用AI的不同阶段,所以对于某些人来说,未来已触手可及,而对于其他人来说,AI仍然是科幻小说中的概念。

  受访者通常既参与技术又参与编辑工作,因此可能与其他部门对将来发生的事情有不同的看法。

  人工智能的发展向来不是一帆风顺的上扬。在人工智能世界中,依然存在着关于最好的前进路线的基本讨论。目前许多长期的人工智能研究项目都基于深度学习,但一些计算机科学家认为这或将是一个“进化死胡同”。这种讨论不在本报告的范围,但提出了更紧迫的问题。

  令人感到惊讶的是,我们询问受访者什么可以在未来应对人工智能的挑战,他们提到的两个关键点与技术并没有直接关系。46%的受访者提到新闻编辑室的培训、教育和扫盲,43%的受访者提到需要招募具有新技能的员工。

  我们的调查显示,在将来,另一个重要的非技术主题是,新闻编辑室和其他机构(如大学)之间的合作可能性,以及向其他行业学习及其人工智能使用方法的需求。来自新闻编辑室的受访者坚持认为,新闻可以在人工智能世界中蓬勃发展,但人们确实担心随着技术的进步而落伍。

  “我认为,就广播公司而言,人工智能带来的最根本的变化不是在新闻编辑室流程中,而是在内容和受众之间的互动中。理解用户的语音请求并根据我们的存档内容明确回答问题,而不是依赖于我们与用户之间的第三方(Google、亚马逊等)及其框架,这将是激动人心的变化。但显然现在还做不到。”

  通常需要对其他新闻编辑技术进行结构性调整,这种辅助关系才能正确集成人工智能,从而将最初级的创新转变为中期乃至长期发展成果:

  “我会建立一个能够获取千兆字节文本的系统,并以对话的形式回答有关当前业务的问题。没有一家新闻机构有足够的资源来做这件事,而且任何出版商提供的可用文章的规模都太小,无论如何都无法用来训练大型深度学习系统。”

  正如我们在上个章节中提到的,战略十分关键,但情况在不断变化。虽然人工智能开发在存在文化和知识壁垒,但人员依然被视为未来的关键资源因素。如果组织结构不发生变化、不能正确认识人工智能,就无法为开发特定工具或产品持续提供更多资源:

  “有能力在技术、产品和形式上进行更多的创新,这是好事,但是如果没有(可能的)重大组织结构变革,很难将这些创新融入进去。”

  “我会把资源投入到阐释我司作为传统媒体的前进方向,并制定战略,让员工和部门能够为之铺平道路。以当前的技术发展速度,制定详细计划是不太可能的。如果不了解潜力和极限,就不可能在未来制定战略并保持竞争力。”

  大多数受访者建议创建团队,开发综合人工智能和制定数据战略,然后在有足够资金的情况下确定优先级并执行任务。也许这并不奇怪,因为一些受访者已经在这样的团队中工作了。尽管这些部门各不相同,通常从事特定项目,但大多数受访者强调有必要与其他新闻编辑室整合。受访者提出了两种方法,分别是实验法和学科交叉法:

  我会建立一个小团队,负责对人工智能进行实验。任何项目都需要一名相关编辑或新闻业内人士。我不要求他们生产最终产品,而是在开始确定可实现的方案和预测可能的危险。

  我会建立一个内部实验室,由人工智能专家组成核心团队,然后每个部门的同事都可以在实验室待上一或两个月。实验室的内容是分析过程,研究读者对人工智能生产内容的理解,测试或自己发明新工具。

  我认为我们需要一个专注于更广泛领域的小型团队,例如自动化和内容增强。这个团队不应仅由新闻工作者和开发者组成,还应有社会科学家和设计师加入。团队也不应该固步自封,只停留在新闻编辑室内,而是成为公司不同部门的桥梁,所以资源和知识不只用于内部。报社不仅仅是新闻编辑室。

  我会创建一个团队,大约15到20名新闻工作者(文字,视频)+一个专门的项目团队(PO+UX+UI设计师+图形设计师+运动设计师+3名开发者和1个技术主管+1-2名开发人员)+2名项目经理+4名数据分析师+1名增长分析师以及1位项目负责人。这个团队将拥有专门的支持和我们的5%观众(当然还包括志愿者)。它将有自己的路线规划和专门的优先项/KPI。但这将是一个很棒的工作团队 :-)

  受访者对未来的最大期望是,针对人工智能的通识教育和专业培训。在新闻机构中,“科技扫盲”被认为是改变风尚、增进对新工具和系统的了解的重要因素。解释和揭秘人工智能可以使人们学会它的使用方法:

  “扫盲非常重要。从基础编码,到数据科学,我们正在研究怎么从这些方面更好地教育新闻工作者。从经验来看,越是能够接受技术、越早提出人工智能项目想法和储备专业知识的新闻编辑室,他们的结果就越好。”

  培训可以通过在线课程或第三方来完成,但这与整个新闻编辑室的发展以及个人学习一样重要:

  “参与技术运行原理和潜在应用的基本培训,可能会帮助我们认识从前错过的应用程序,从而发现商业机会。”

  “我们都需要具体的人工智能培训:即使是密切相关的人员也可能无法完全理解技术,因此也无法预见各种可能性。对于新闻编辑室来说,新技能着重在人工智能素养和数据分析上;对于技术团队而言是基础层次的人工智能解决方案知识。”

  潜藏在人工智能培训需求背后的问题是编辑人员的STEM(科学、技术、工程和数学)素养短缺、以及反思现有的新闻实践和原则之间关系的能力的短缺:

  “新闻工作者并不需要立刻掌握编写代码的技能,但他们应该了解去往美丽新世界所需的基本工具。这意味着要围绕数学、数据和计算机科学建立核心能力。对于自动化项目,你要经常总结新闻经验和判断。这就要求新闻工作者以系统的方式思考,为什么要做出某类决策,以便机器进行学习。”

  “我认为训练的侧重点是,由来自不同领域的人员组成小团队进行实验。这将有助于沟通彼此的想法,可以在未来产生巨大的影响。”

  “以前没有接受过计算新闻学方面训练的人需要接受基础培训,还有关于数据抓取技术的基本培训。而了解技术较多的人员需要进一步接受训练,把深度学习或机器学习的结果应用于现实生活中的新闻故事。”

  了解人工智能是新闻机构中管理人员必不可少的知识。这不只是为了改善系统,还促进新闻编辑室从其他地方学习,以便进行战略调整:

  “提高认识:了解竞争对手的技术水平如何,了解其他新闻编辑室的实际情况,然后确定该技术如何改变我们新闻编辑室——然后留心这些问题。了解机器如何提高我们的表现和输出,而不是取代我们。观察发现表现出色的类似/其他行业。”

  我们在上一章中提到了,我们需要理解广泛的道德问题,才能解决人工智能中的偏见和其他道德问题。只有拥有更好的洞察力,才能以系统的方式达成公开透明:

  “我们要理解提供给算法的输入值和变量,以最大程度地减少偏差。建立反馈和迭代过程。在编辑大会或其他论坛上公开透明地讨论“过滤气泡”、道德和人工智能倡议。在多个部门建立测试组,加入多种编辑功能(例如订阅者模式/编辑者模式),以演示新功能并提供反馈。”

  “新闻编辑室和新闻工作者需要就技术的前进方向、技术如何改变世界、以及新闻在其中的作用等问题进行更多的讨论和培训。这不是学习特定的技术或人工智能技能,更是了解变革的步伐,了解可能性,以及知晓如何保持现在的优势。”

  新闻编辑室中,并非每个人都需要了解人工智能的方方面面。但至少一部分人需要对技术可能产生的整体、系统性影响有综合的了解:

  “我认为,新闻编辑室中所有使用人工智能的人都需要知道这些事情:在相对较高的层次上,人工智能系统是如何工作的。 例如:定义问题,收集数据,建立模型,评估模型,生产过程,反馈到定义问题组以及迭代。

  我觉得现在存在着一个误解,大家认为构建模型或工具是困难的部分,而实际上最复杂的地方在于定义和评估阶段。在做出编辑判断之前,了解系统行为也很重要。系统规定参数是什么,有什么限制?然后是相关人员需要了解的特定事项,例如评估指标。”

  少数人认为,不应该把高水平的培训或教育浪费在新闻编辑室上。他们认为,为不懂技术的人创造工具是技术人员的工作:

  “技术人员需要为新闻工作者创造易用的产品和服务,并且应当界面简洁、操作方便。人工智能需要被揭开神秘面纱。”

  “如果我们做好本职工作,人工智能在人们的日常工作是会隐形的。唯一的例外大概是我们的数据团队,但他们也正在努力。”

  传统意义上,新闻业是一个互相竞争而非携手合作的行业,受访者对人工智能的热情代表了业界思维甚至是新闻制作方式的重大转变。受访者往往有来自其他行业的工作经验,因此可能比其他新闻编辑室员工有更多的合作经验,这是新闻业的真实趋势。

  技术驱使着我们改变,但市场、受众的变化甚至是道德也是原因。绝大多数受访者同意这一点:新闻业需要更多的合作关系。在之前的章节中我们谈到新闻编辑室的内部合作,它也是外部合作的先决条件:

  “使用人工智能技术进行创新的一个主要障碍是,新闻机构对自己的内部流程和工作流程的了解不足。很难自动化执行流程,只有执行部门才懂得如何去做。解释清楚过程/工作流将是合作的良好起点。”

  人工智能提供了与其他机构合作的机会。这包括一系列广泛的活动,包括研发、新闻调查、数据共享以及培训。还有,可以与其他新闻媒体一起合作解决某些问题:

  “建设一个用于人工智能和机器学习的集中式历史文章数据库,全国各地的新闻编辑室将从中受益。”

  合作还可能涉及科技公司、学术界和民间社会组织。一些受访者认为自己已经有很多合作经验,有人认为现在谈合作还为时过早。总的来说,大家有意愿进行合作:

  “媒体机构之间的合作越多越好,但也可以与跨学科人士合作,例如社会科学家,他们可以帮助处理数据。这也是统一数据和人工智能道德规范的方法。”

  “合作越多越好。独立出版商在新闻所需的人工智能创新和产品开发方面缺少资金。具有明确战略目标并与合作伙伴步调一致的创新团队可使研发更具影响力。”

  新闻媒体目前的竞争非常激烈,并为新闻独立感到自豪。越小的组织往往对合作最为积极,但是有人建议通过中介机构来促进合作:

  “有实力的新闻编辑室往往拥有强大的独立文化,让他们进行紧密合作的难度很大。具有讽刺意味的是,小型新闻编辑室通常不担心这个问题。我们需要的可能是诚实的经纪人(来自学术界、非营利组织或投资人),此人能够召集所有人并制定出人人愿意参与的条件。”

  “我们相信,合作对于人工智能在该领域的成功至关重要。但是,合作本身就是一项工作。组织跨地域的机构非常耗费资源。但是,如果我们想建立全球适用的工具,就必须做出这样的权衡。”

  “跨国新闻合作关系是新闻界一大热门话题。我们见到了一些合作案例,并期待全球话题(例如跨境腐败和气候变化)方面能有更多合作。”

  这在各个国家/地区都具有价值,来自捷克、荷兰和斯堪的纳维亚半岛国家的受访者都表示这些合作会成为未来的榜样:

  “丹麦版美联社正在尝试建立自然语言处理方面的合作,分析丹麦各媒体公司的内容并加上标签。希望这只是开始。”

  “至少在斯堪的纳维亚半岛,新闻界人士在分享人工智能技术的进展和发现时放下了戒心。这是因为所有人都意识到,竞争已从新闻编辑室之间转移到了有影响力的大型技术平台。”

  国际调查记者同盟(ICIJ)是新闻业的专门组织,不仅在《巴拿马文件》的帮助下产出许多优秀的跨国新闻,而且还提供普及的培训和合作资源。它与 Quartz 人工智能工作室、斯坦福大学以及众多新闻机构进行合作。这个例子很好地说明了,独立供资的中间机构也能提供人工智能新闻资源和专业知识。

  这份报告展示了新闻编辑室现在在用人工智能做的事情,以及未来要做的事。我们已经看到了人工智能对新闻资源和公众关系产生的影响,以及引发的新型挑战,例如科技公司的作用和培训的需要。但是,受访者如何看待人工智能的长期发展趋势?本报告的受访者常常与人工智能接触,因此不出意外,他们认为人工智能对重塑新闻业有着至关重要的作用。

  “采用人工智能不是可选项,而是必选项,如果哪家新闻机构还没有加入到这场马拉松中,那么他们应该尽快开始了。”

  “技术一直影响着新闻业:互联网改变了传播方式;打字机和计算机先后提高了生产力;印刷机扩大了报纸的规模。自动化和人工智能已经改变了行业的各个方面,这一趋势将继续下去。”

  大多数受访者认为,人工智能对未来的影响是渐进的、增强式的。但少数人认为,人工智能是推动新闻“结构化”转变的核心,未来将由自动化和个性化算法推动内容创作:

  “人工智能技术实际上使我们从单向输出,也就是广播通信面向读者,变成了双向交互式交流。”

  未来的新闻将是围绕人工智能的跨学科行业,这意味着需要创造新的技能组合、组织管理模式和新闻学科方法。新的工作模式可能会产生与人工智能相关的新职位,如自动化编辑、计算新闻记者、新闻编辑室工具经理、人工智能道德编辑等。但他们做的事情会有什么不同?

  “我认为新闻编辑室的任何工作都可以借助人工智能进行增强,真正的问题是,这样做对吗?值得我们花时间吗?有前景的领域可能是……评估内容、简化评论审核、提供优化建议还有提供更好的语境。像“识别新闻报道或独家新闻”这样的领域可以使用人工智能,但是我会我会小心翼翼地使用,因为语境经常变化,编辑判断十分关键。”

  “把文本自动转化成任意形式,文本到语音,文本到视频,这可能是不久的将来最常用的功能。”

  “在人工智能的帮助下优化工作流程,这将是保持竞争力的必要条件。要做到这一点,新闻媒体公司会越来越像科技公司,建立自己的软件开发部门。”

  “人工智能可以使文章内容更有深度,并在研究中收入更多的第一手资料。对我来说,通过窗口小部件丰富个性化的内容生产似乎也很有意思。”

  在过去的二十年里,新闻编辑室一直在应对不断扩大的规模和日益复杂的新闻采编、生产和发行等问题。最近,许多人提到高度集中且十分复杂的定制内容、订阅和用户参与的模型。收入来源、受众行为以及行业“重组“都发生了巨大变化,许多领域的产能不足,行业新鲜血液也得不到补充。许多受访者认为,人工智能将成为整个行业发生改变的另一大主要力量:

  “现有的新闻制作工作流程可能会被彻底颠覆,新闻产品会出现全新类别(例如自动化新闻和程序汇编)。目前还不能确定这种人工智能颠覆力量会来得多快或多强,但它很有可能改变新闻业,这是人们所公认的。

  将新闻内容发布到支持人工智能的平台,然后基于这些已发布的内容资产创建数据经验,这可能会严重破坏新闻行业的业务模型及其创建独特的编辑经验的能力。行业结构加剧了这种情况,具有强大市场力量的平台越来越少。迄今为止,在这些环境中还没有建立起新闻发布的范例。”

  “我们需要更加坚定立场,了解自己的使命,以及掌握分配给系统的任务。如果我们不加强密切合作,人工智能的发展可能会增加垄断,因为小型媒体公司无法负担任何新闻项目。”

  “大多数竞争者来自新闻界外,拥有比信息产业还多的资源,在这样的世界里,我们需要找好定位、发掘效益。”

  人工智能可能是一种改革力量,但它带来的好处是否会被平等分配?人工智能在新闻业是为多数人服务还是为少数人服务?

  “人工智能在新闻和信息的挖掘、生产和发布中的作用日益重要,一个关键问题是,传统且资源匮乏的新闻编辑室在这个生态系统中能发挥什么作用。他们能拥有和人工智能竞争的工具吗?他们是否会提供‘人工’内容,以作为大型组织在人工智能新闻引擎中使用的‘原料’?新闻生态系统的哪些部分不会离开新闻编辑室?”

  人工智能将有助于推动的一个变化因素是“物联网新闻”,将发布内容转移到不同的设备上。随着日常设备互联互通,它们以新鲜的方式方法向消费者传播新形式的新闻。

  弗朗切斯科·马可尼(Francesco Marconi)在美联社进行了实验,例如使用传感器收集新闻数据,并开辟了新闻制作新方式:“我们可以监控娱乐场所和政治场所的振动和噪音,以此确定音乐会上最受欢迎的歌曲,或者比赛中气氛最好的一局,甚至是竞选集会上产生最大共鸣的语句。”

  无人机、可穿戴设备、语音和虚拟现实都成为了新闻制作和发布的一部分。正是人工智能使这些功能可用并具有扩展性。这种增强新闻有许多形式,需要新技能和创造力。有关受众行为的数据是理解这种新的“发布式新闻”的关键:

  “我们希望从单向沟通变为双向反馈,似乎人工智能可以帮助我们理解用户并与之互动。”

  借助受众互动、社交媒体和和多平台发布,新闻编辑室已经习惯了“互联式”或“发布式”新闻形态。人工智能会增加差异性:

  “我认为在新闻编辑室中,增强对技术及其含义的抽象能力和提高分析技巧,这两项是必要的开始。我们需要提高新闻编辑室中处理新闻模式的人员比例,而不是讲述单独故事的人员。”

  除了了解数据和抽象概念之外,新闻工作者可能不得不更加努力地在人情味上下功夫。在坐拥众多技术的情况下,你是否仍能保持人类思考角度并将用户体验作为核心?

  “人工智能是否可以支持我们与读者的互动,而不会造成其他影响,我也很想知道这一点。如果我们能使工作更加透明,并且惠及更多人群,那么前景将十分广阔。”

  培养公众对新闻的信任和兴趣的关键因素是情感。新闻需要从用户的角度看待世界,并让他们觉得新闻反映了自己的价值观、身份和情感。情感一直是新闻界中“人类利益”的一部分,但在数字和社交网络时代,它是获得关注和促进分享参与的关键因素。随着人工智能在理解“情绪”方面的进步,这项技术将有助于新闻编辑室更好地与观众产生联系。

  新闻业是一个独特的行业。新闻工作具有许多特殊条件:新闻周期、公共利益、监管制度、不同的商业模式、不同的格式、高度差异化的受众和多样但强大的“专业”文化。出于道德和商业原因,新闻十分重视独立性。因此,一些受访者(约10%)认为,不需要花费太多时间去看待其他行业在人工智能方面的表现:

  “我认为新闻应该关注其他行业。事实上,我担心的事情是,作为一个行业,新闻业总是在内部寻找指引。《纽约时报》在做什么?《华盛顿邮报》在做什么?我们需要向其他行业取经,看看他们的创新、错误和忧患是不是也适用于我们。”

  一些受访者曾经在其他行业工作过,许多人觉得,除了新闻媒体还可以从业界之外学到很多东西。呼吁“新闻界的Spotify”或“新闻界的Netflix”已经成为陈词滥调,但是有对比可能就有进步。这些是充分利用人工智能技术的新兴公司。但受访者也将视线投向其他传统行业,特别是结构经过优化并将技术带来的威胁转化为可持续模式要素的行业:

  “如果从长远出发,我们应该看看任何存在供应链管理问题的行业。例如,20年前的音乐产业。”

  显然,广告和营销等媒体行业与新闻行业密切相关,但其他不太相关的行业也被引用进来,如Ebay、亚马逊和阿里巴巴等在线零售公司:

  “在线零售是一个已经将人工智能深度集成到其自动化流程中的行业。部分原因在于,在线零售会生成大量高度结构化的数据,这使得对用户行为及高级目标的深入分析变得更加容易。尽管媒体行业可能无法复制在线零售中使用的点对点技术,但是产品推荐、动态定价、客户决策过程分析甚至自动化产品描述/标题生成的等最先进的机器学习模型绝对值得一看。”

  “博彩网站真的很有趣,他们对用户行为的追踪程度超过了其他任何行业,而这正是我们真正想达到的效果——被本地新闻所吸引。”

  游戏化新闻最巧妙地采用了新技术来展现全新内容格式,例如《金融时报》的Uber Game,但受访者认为游戏行业本身更具相关性:

  “就个人而言,我认为游戏行业是所有人工智能使用领域中的最佳实践。人工智能在人机交互中的无缝实现令人印象极为深刻。”

  进行比较,可以得到正面的启示和负面的教训。例如,法律从人工智能支撑的数据搜索中受益,但人工智能也对合法劳工模式造成了负面影响。教训不仅仅来自技术层面或经济层面。其他行业的人工智能正在引发一场全新的争论,即在我们和用户之间隔着自动化的机器,信任意味着什么。医学、制药和生物技术行业都面临着深刻的道德挑战,新闻业应该予以正视:

  “我们应该向他们学习在数据精度、验证、数据完整性以及匿名大型数据池使用方面的标准。”

  但最常见的老师是各大科技公司。他们在研究方面占主导地位。他们正在创造新闻工作者可能会使用的新产品和网络。科技公司也面临着同样的市场和道德挑战,新闻业可以从中学习:

  “软件巨头和数字技术公司(例如Microsoft,Google和Facebook)是该领域的领先者,我们需要不断向他们学习和借鉴。”

  “科技公司就是明显的例子——他们犯了很多错误,也提了很多假设,我们可以从中学习,避免问题发生。”

  最近的历史已证明,面对技术变革,新闻行业适应性极强。然而,新闻业的规模不断缩小,并苦苦争夺资源。

  根据受访者的看法,人工智能会带来更多的变化和巨大的挑战,但也为那些理解和部署技术的人提供机会,提高他们的工作水平。新闻业是一个相对规模较小的行业,而人工智能是一项庞大而昂贵的技术。如果以人工智能为动力的增强新闻蓬勃发展,新闻业就必须再一次展现想象力以及决心。

  本报告代表了全球多家新闻机构从事人机合作人士的观点。受访者较为熟悉人工智能,并对其应用抱有积极的态度。所以,当他们指出人工智能的局限性以及使其正常工作需要付出的努力时,事情的发展就更有趣了。他们表明,人工智能正在赋予他们更多力量,但随之而来的还有编辑和道德责任。

  受访者强烈认为,人工智能有助于提高新闻工作者的工作效率,并使他们更好地办到以下两件重要事情:

  1.在新闻行业为取得经济发展以及公众信任而努力的时代,不管有没有人工智能的帮助,让新闻工作者有时间创造更好的新闻工作。

  2.帮助公众应对新闻过载和信息失真的世界,并以轻松的方式把人们与其生活密切相关的、实用的、令人激动的新闻联系起来。

  要做到这一点,新闻机构必须(再一次)改变。他们需要采取某种形式的人工智能战略。还要改变工作流程、管理系统和招聘方式。

  即使如此,这将是一次艰难的改变。人工智能是一种新兴的技术,其应用可能会十分复杂和昂贵。它也有严重的问题,比如说算法偏见或对短视的收益政策。某些挑战是全行业的危机。作为一个行业,新闻业必须有更多的内部和外部协作。新闻编辑室需要进行重大投资,吸收新闻需要的技能、知识和创新创造,以优化人工智能并减少潜在的危害。

  这需要行业思想的转变。新闻行业一直以来竞争严重、相对孤立。而改变需要灵活调整和长期规划,可能与新闻周期的快速优先以及来自市场的压力相矛盾。公共媒体部门将面临类似的挑战,也需要适应。新闻媒体需要强大而有效的方法来处理与其他利益相关者的关系,如科技公司。

  人工智能技术既不会拯救也不会扼杀新闻业。新闻业本身面临许多其他挑战,如公众的冷漠和反感、其他事物的吸引力。

  也许,在这个人工智能领跑许多领域(从政治到医学)的世界中,新闻业最大的希望是人工智能和世界比以往任何时候都更需要良好的新闻。在这里“引用”美国总统肯尼迪的话:新闻工作者不应只问人工智能可以为他们做什么,他们应该问自己可以为人工智能世界做什么。

  首先,他们需要和人工智能一同行动起来。这并不意味着它会屈服于炒作。这意味着业界要对技术的价值以及战略部署的方式做出明智的判断。这还意味着业界要再次接受事实,必须适应新闻及其消费方式正在发生变化。“远见”对新闻业仍然很重要,特别是在世界似乎变得更加混乱和矛盾之时。

  人工智能为新闻提供了一系列工具。不是推倒新闻“信息守护人”的卓越地位然后重来,而是成为可信赖的信息创建者和策划人,成为具有批判性和独立分析的新闻来源,以及成为能够进行各种相关讨论的论坛。正如克莱·舍基(Clay Shirky)十多年前所言:“不存在信息超载,只有过滤失败。”人类的新闻技能和价值观若能和技术完美结合,会十分有益。

  各家新闻无法单打独斗,因为对算法和新的通信网络还不够了解,需要更好地理解人工智能如何为新一代公民塑造信息生态系统。新闻机构需要找到其他资源和专业知识的利用方法。他们需要向公众和社会证明,新闻可以成为这项技术健康发展的关键因素。

  也许我们从这份报告中获得的最有用信息是,我们正处于另一个关键的历史时刻。如果我们认为新闻业是一种由人类提供的社会福利,那么在所有新闻机构必须采用这种技术之前,我们还有2-5年的时间。好消息是,调查中获得的回应显示,全球新闻业大部分成员正视这一挑战,并努力实现目标。他们热衷于使用新力量,但也接受新责任。

  就我们而言,期待建立新闻和人工智能网络,目的是促进相关方沟通、促进更好的培训、激发研究,以及推动最佳实践和对话的交流。