什么是自然语言处理?自然语言处理 (NLP) 是指处理语言学的人工智能的一个分支,其目标是使计算机能够理解人类如何自然地交流。 NLP 实现的进步示例包括 ws号码列表 社交聆听工具、聊天机器人和智能手机上的单词建议。 本身并不是搜索引擎的新功能。然而,BERT 代表了 NLP 通过双向训练取得的突破(更多内容见下文)。 是如何工作的? BERT 的突破在于它 ws号码列表 能够基于句子或查询中的单词集来训练语言模型(双向训练),而不是传统的基于单词有序序列的学习方法(从左到右或从左到右组合)从右到左)。
允许语言模型根据周围的单词学习单词的上下文,而不仅仅是紧接在它之前或之后的单词。谷歌将 称为“深度双向”,因为单词的上下文表示“从深度神经网络的底部开 ws号码列表 始”。 “例如,‘bank’这个词在‘’和‘’中会有相同的上下文无关表示。 “上下文模型 ws号码列表 会根据句子中的其他单词生成每个单词的表示。例如,在“我访问了银行账户”这句话中,单向上下文模型将基于“我访问了”而不是“账户”来表示“银行”。但是,使用其前后上下文来表示“银行”——“我访问了帐户……”。谷歌 ws号码列表 展示了在搜索结果中应用 的影响的几个例子。
在一个示例中,查询“成人数学练习书籍”之前在有机结果的顶部出现了 6-8 年级书籍的列表。使用 应用程序“和”对于“意义很重要,搜索将能够理解您查询中单词的上 ws号码列表 下文,”谷歌在其博客文章中写道。 .但是,并非所有查询都是会话式的或包含介词。品牌搜 ws号码列表 索和较短的短语只是可能不需要 BERT 自然语言处理的查询类型的两个示例。 BERT 将如何影响我的片段?正如我们在上面的示例中看到的,BERT 在应用时会影响片段中出