十四、python基础:函数的进阶用法列举一些函数,用来加深一下对函数的印象,其中斐波那契数列的相关计算是使用了递归算法。一、函数的执行顺序; 二、增加函数灵活性; 三、把函数当参数传递; 四、集合关键字参数; 五、斐波那契数列(兔子数列); 六、switch函数。一、函数的执行顺序;def test_1():
print("-" * 50)
def test_2():
print
转载
2023-12-07 11:07:45
136阅读
函数参数传递可改变可改变对象(列表等),不可改变不可改变的对象(数字,字符串等)。 类似于C语言:不可变对象通过值传递不能改变原对象,可变对象通过指针传递可改变原对象。 返回值可以是任何类型包括函数。参数类型说明: 1.基于位置参数从左往右匹配,eg:func(value)--调用者 def func(name)--函数 2.关键字参数通过name=value参数名匹配,eg:func(name=
转载
2024-04-15 14:41:06
433阅读
1.背景描述当我们用pandas在进行时间类数据的处理时,不可避免的就要接触到freq这个参数。如date_range等函数,如Datetimeindex、Period、DataFrame等对象都会涉及到这个freq参数,那freq这个参数究竟有哪些?2.参考文档官方网址:https://pandas.pydata.org/pandas-docs/stable/user_guide/timeser
转载
2023-08-18 17:05:22
1332阅读
# 使用Python进行“频率分组”操作的入门指南
在数据分析和处理的工作中,我们常常需要将时间序列数据按照特定的频率进行分组。比如,对于一分钟的频率分组,我们通常希望按照每分钟的数据进行聚合。这创建了一种方便的方式来观察数据在小时间段内的变化趋势。
## 整体工作流程
下面的表格展示了我们将要执行的步骤:
| 步骤 | 描述 | 代码
原创
2024-10-31 07:04:43
65阅读
可通过以下表格直接寻找对应的内置函数 Built-in Functions abs()dict()help()min()setattr()all()dir()hex()next()slice()any()divmod()id()object()sorted()ascii()enumerate()input()oct()staticmethod()bin(
# 如何实现“结巴 python”
## 介绍
作为一名经验丰富的开发者,我将向你解释如何使用“结巴 python”这个自然语言处理库。这将是一个指导,帮助你了解整个流程并掌握如何实现它。
## 整个流程
下面是实现“结巴 python”的整个流程,我用表格展示了每一个步骤。
```mermaid
journey
title 整个流程
section 开始
开
原创
2024-04-12 05:52:21
57阅读
# 解决“结巴python”问题的系统化过程梳理
“结巴python”是一个汉字分词工具,广泛应用于文本分析与自然语言处理。但在实际部署和使用过程中,可能会遇到许多技术问题。本博文记录了解决“结巴python”问题的系统化过程,包括环境预检、部署架构、安装过程、依赖管理、配置调优和迁移指南。
## 环境预检
在开始部署“结巴python”之前,需要对环境进行预检,确保硬件和软件条件符合要求。
一、 Python及其依赖包安装:官网https://www.python.org/下载python2.7,直接双击安装包进行安装,然后配置系统环境变量的path变量,添加: C:\install\Python\Python37 和 C:\install\Python\Python37\Scripts 在dos窗口中,执行python,可以看到提示信息: 表示安装成功;通过python -m pi
转载
2023-12-11 14:44:03
41阅读
就是前面说的中文分词,这里需要介绍的是一个分词效果较好,使用起来像但方便的Python模块:结巴。一、结巴中文分词采用的算法基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法二、结巴中文分词支持的分词模式目前结巴分词支持
转载
2023-08-20 20:32:02
98阅读
本文主要介绍 Python 的 REfO 的基本使用方法。1.1 简介 REfO,Regular Expressions for Objects。它和 Python 的 re 模块提供相似的功能。但是 REfO 是为对象(object)序列设计的,re 模块是为字符串(string)设计的。1.2 使用方法 REfO 的语法与 Python 的 re 有点不同,与 pyparsing 的
转载
2023-09-26 10:49:24
110阅读
介绍jieba目前是一款比较好分词模块分词import jieba
# 可以使用jieba.cut进行分词
sentence = "失去恋人所带来的苦痛远远超过了他的承受范围"
"""
函数大致如下
jieba.cut(sentence, cut_all=False, HMM=True)
sentence:分词的句子
cut_all:是否使用全模式,默认是False,表示精准模式
HMM:是否
转载
2023-08-22 16:57:34
44阅读
在Python的自然语言处理领域,结巴分词库(jieba)广泛应用于中文文本处理,然而在实际使用中,常常会遇到各种问题。以下是对遇到“python结巴”相关问题的复盘记录,以便大家更好地理解和解决类似问题。
## 问题背景
随着中文信息处理需求的逐步增加,结巴分词作为一种高效的分词工具,连续被多个项目采纳。在某个电商平台的文本分析任务中,由于结巴分词出现问题,导致了产品信息抓取不完整,从而影响
就是前面说的中文分词,这里需要介绍的是一个分词效果较好,使用起来像但方便的Python模块:结巴。一、结巴中文分词采用的算法基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法二、结巴中文分词支持的分词模式目前结巴分词支持
转载
2023-07-02 21:58:20
124阅读
一、前言:我们在前面学习了python的多进程的创建及使用,是不是很Easy呢?但是,一旦涉及到多进程的使用,难免我们就会遇到多进程间通信的问题。本次我们就来学习多进程间的通信,其实也很Easy的哦。二、Python 进程间通信方式一:QueueQueue方法介绍1、Queue.qsize():返回当前队列包含的消息数量;2、Queue.empty():判断队列是否为空,空返回True,否则返回F
转载
2023-12-01 14:30:54
81阅读
一、pip安装 注:pip是python自带的(没有安装过python的同学可以先安装python) 1、pip添加源(已经添加过的请忽略此步骤) windows下在个人用户目录下(c:\users\[自己的电脑用户名]\)下新建文件夹 pip,
转载
2023-06-01 16:22:36
208阅读
本文实例讲述了Python结巴中文分词工具使用过程中遇到的问题及解决方法。分享给大家供大家参考,具体如下:结巴分词是Python语言中效果最好的分词工具,其功能包括:分词、词性标注、关键词抽取、支持用户词表等。这几天一直在研究这个工具,在安装与使用过程中遇到一些问题,现在把自己的一些方法帖出来分享一下。1、安装。按照官网上的说法,有三种安装方式,第一种是全自动安装:easy_install jie
转载
2023-09-11 09:33:32
99阅读
jieba安装: 下载安装包,官网地址:https://pypi.org/project/jieba//本人网盘链接:https://pan.baidu.com/s/1ufgUyYPaBv2NTUvwybH1Ew 提取码:nxed解压安装: 首先压到任意目录 打开cmd命令行窗口并切换到jieba目录下 运行python setup.py install完成安装用法:i
转载
2023-07-01 09:15:37
77阅读
# 使用Python中的结巴分词库进行中文文本处理
在处理中文文本时,分词是一个非常重要的环节。由于中文没有明显的单词边界,分词的任务就变得非常复杂。幸运的是,Python中有一个非常强大的分词工具——结巴(jieba)。本文将介绍如何在Python中使用结巴分词库,并提供代码示例,帮助读者更高效地处理中文文本。
## 结巴分词库简介
结巴分词库是一个开源的中文分词库,它支持三种分词模式:精
结巴中文分词安装:pip install jieba特点:支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 支持繁体分词 支持自定义词典 MIT 授权协议算法:基于前缀词典实现高效的词图扫描,生成句子中汉
转载
2024-06-04 06:30:07
23阅读
把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式: 在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。'''import jiebaimport jieba.analyseseg_list = jieba.cut("我来到北京清华大学找,我很开心",cut_all=True)print "全模式: ", "/".join(seg_list)
原创
2021-08-28 09:51:36
321阅读