1、链表的连接
- list1+list2
- list1.append(“word”)
2、链表的索引
- list[10]
- list.index(“word”)//链表的第一个”word”的位置
- list.count(“word”)
3、频率分布
- fdist1 = FreqDist(text1)
- dist= FreqDist(samples) 创建包含给定样本的频率分布
- fdist.inc(sample) 增加样本
- fdist[‘monstrous’] 计数给定样本出现的次数
- fdist.freq(‘monstrous’) 给定样本的频率
- fdist.N() 样本总数
- fdist.keys() 以频率递减顺序排序的样本链表
- forsample in fdist: 以频率递减的顺序遍历样本
- fdist.max() 数值最大的样本
- fdist.tabulate() 绘制频率分布表
- fdist.plot() 绘制频率分布
- dist.plot(cumulative=True) 绘制累积频率分布图
- fdist1< fdist2 测试样本在 fdist1中出现的频率是否小于 fdist2
4、字符串操作
7、访问语料库
- 古腾堡项目的语料库(http://www.gutenberg.org/)
nltk.corpus.gutenberg.fileids()//返回所有的文件名标识符
[ ‘austen-emma.txt’, ‘austen-persuasion.txt’, ‘austen-sense.txt’, ‘bible-kjv.txt’,
‘blake-poems.txt’, ‘bryant-stories.txt’, ‘burgess-busterbrown.txt’,
‘carroll-alice.txt’, ‘chesterton-ball.txt’, ‘chesterton-brown.txt’,
‘chesterton-thursday.txt’, ‘edgeworth-parents.txt’, ‘melville-moby_dick.txt’,
‘milton-paradise.txt’, ‘shakespeare-caesar.txt’, ‘shakespeare-hamlet.txt’,
‘shakespeare-macbeth.txt’, ‘whitman-leaves.txt’…]
- emma = nltk.corpus.gutenberg.words(‘austen-emma.txt’)//这篇文件的具体内容
- emma = gutenberg.raw(“austen-emma.txt”);#输出的是整个文章

note:这里是对nltk.corpus进行研究,之前的text是对nltk中的九个文本进行的研究,
例如用text1.concordance()命令对文本内容进行检索,这里如果想像这样对文本进行操作,
则emma = nltk.Text(nltk.corpus.gutenberg.words(‘austen-emma.txt’))
emma.concordance(“surprize”)