当前位置: 首页 > 科技观察

5个Python库帮你轻松进行自然语言预处理

时间:2023-03-13 13:05:02 科技观察

自然语言处理是比较广泛的研究领域之一。许多大公司都在这个领域投入了大量资金。NLP为公司提供了根据消费者的情绪和文本深入了解他们的机会。NLP的一些最佳用例包括检测虚假电子邮件、分类虚假新闻、情绪分析、预测您的下一个词、自动更正、聊天机器人、个人助理等。在解决任何NLP任务之前要了解的7个术语标记化:它是将整个文本拆分为小标记的过程。占卜是根据句子和单词进行的。text="Hellothere,howareyoudoingtoday?Theweatherisgreattoday.pythonisawsome"##sentetokenize(Separatedbysentence)['Hellothere,howareyoudoingtoday?','Theweatherisgreattoday.','pythonisawsome']##wordtokenizer(Separatedbywords)['你好','那里',',','怎么样','是','你','在做什么','今天','?','','天气','是','很棒','今天','.,'python','is','awsome']停用词:一般来说,这些词不会给句子增加太多意义。在NLP中,我们删除了所有停用词,因为它们对于分析数据并不重要。英语中共有179个停用词。词干提取:这是通过删除后缀和前缀将单词缩减为词根的过程。词形还原:它的工作原理与词干提取相同,但主要区别在于它返回一个有意义的词。主要开发聊天机器人、问答机器人、文本预测等。WordNet:是专门为自然语言处理设计的英语名词、动词、形容词、副词分组成集合的词汇数据库或词典。词性标注:这是将句子转换为元组列表的过程。每个元组都有一个形式(单词、标记)。这里的标签表示这个词是名词、形容词、动词等。text='Ansinceritysoextremityheadditions.'----------------------------('An','DT'),('诚意','NN'),('so','RB'),('extremity','NN'),('he','PRP'),('additions','VBZ')]词袋:它是将文本转换为某种数字表示的过程。比如one-hot编码等。sent1=heisagoodboysent2=sheisagoodgirl||girlgoodboysent1011sent2101现在,让我们回到我们的主题,看看可以帮助您轻松预处理数据的库。NLTK毫无疑问是自然语言处理最好和最常用的库之一。NLTK是NaturalLanguageToolkit的缩写。由StevenBird和EdwardLoper开发。它带有许多用于标记化、词形还原、词干提取、解析、分块和词性标记的内置模块。它提供了50多个语料库和词汇资源。安装:pipinstallnltk让我们使用NLTK对给定的文本进行预处理.'text='Hellothere,howareyoudoingtoday.'text=IamLearningPython?re.sub("[^a-zA-Z0-9]","",text)text=word_tokenize(text)text_with_no_stopwords=[ps.stem(word)forwordintextifwordnotinstopwords.words('english')]text="".join(text_with_no_stopwords)text--------------------------------------------OUTPUT----------------------------------'hellotodayIlearnpython'TextBlobTextblob是一个简化的文本处理库。它提供了一个简单的API,用于执行常见的NLP任务,例如词性标注、情感分析、分类、翻译等。安装:pipinstalltextblobspacy这是python中最好的自然语言处理库之一,用cpython编写。它提供了一些预训练的统计模型,并支持多达49+种语言进行分词。它具有用于标记、解析和命名实体识别的卷积神经网络。安装:pipinstallspacyimportspacynlp=spacy.load('en_core_web_sm')text="IamLearningPythonNowdays"text2=nlp(text)fortokenintext2:print(token,token.idx)------------------------------OUTPUT------------------------I0am2Learning5Python14Nowdays21Gensim是一个专门用于识别语义相似度的Python库两个文件之间。它使用向量空间建模和主题建模工具包来查找文档之间的相似性。它是一种旨在处理大型文本语料库的算法。安装:pipinstallgensimCoreNLPStanfordCoreNLP的目标是简化将不同语言工具应用于一段文本的过程。这个库非常快,在开发中效果很好。安装:pipinstallstanford-corenlp