盘点一个语音转换库

大家好,我是皮皮。

一、前言

前几天在Python星耀交流群有个叫【多隆】的粉丝问了一道Python库语音转换的问题,这里拿出来给大家分享下,一起学习下。

这个是他的元素代码:

from gtts import gTTS
import  os
tts = gTTS(text="说中文哈觉得获得好好读", lang="zh-tw")
tts.save("hello1.mp3")

二、解决过程

【dcpeng】解答

这个语音库需要安装,安装方法(可加源):pip install -i https://pypi.tuna.tsinghua.edu.cn/simple gTTS。

不然会提示下方错误:

安装完成之后,跑代码,还是会出错,因为原始代码有问题,有个参数不对,根据官网提示,lang=zh-TW才是。

from gtts import gTTS
import os
tts = gTTS(text=”说中文哈觉得获得好好读”, lang=”zh-TW”)
tts.save(“hello1.mp3”)

不过很不巧,还是报错,如下图所示:

这个原因是这个gtts需要连到Google的服务器,但是不科学上网的话,其实访问不到的。

那如果连接不上外网,也没有vpn,咋办呢?

不慌,下面【瑜亮老师】大佬给出了解决方法。

【瑜亮老师】解答

下面这个是【瑜亮老师】大佬给出的代码,设置一下域名即可,如下所示:

from gtts import gTTS

tts = gTTS(text="说中文哈觉得获得好好读", lang="zh-TW", tld='com.cn')
tts.save("hello1.mp3")

这样就可以顺利生成了,不需要科学上网也是可以实战转换的。

当然了,tld=’cn’也是一样的,这个是调用translate.google.cn,上面的那个示例是调用translate.google.com.cn,加的参数是tld=’com.cn’。

下图是官方文档:

三、总结

大家好,我是皮皮。这篇文章主要分享了一个Python处理语音转换库的使用问题,针对该问题给出了具体的解析和代码演示,一共两个方法,帮助粉丝顺利解决了问题。

更多关于gTTs库使用的问题,可以前往官网:Module (gtts) — gTTS documentation https://gtts.readthedocs.io/en/latest/module.html#languages-gtts-lang查看。

最后感谢【多隆】提问,感谢【dcpeng】和【瑜亮老师】大佬给出的具体解析和代码演示,感谢【冫马讠成】、【月神】、【Lasu】等人参与学习交流。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

编写一个闭包函数,要实现的功能是计数功能

大家好,我是皮皮。

一、前言

前几天在Python最强王者交流群有个叫【杰】的粉丝问了一个Python装饰器的问题,这里拿出来给大家分享下,一起学习下。

二、解决过程

这里【东哥】给出了解答,其实这个题目就是在考你装饰器的内容。

代码如下:

count = 0
def wrapper(func):
    def inner(*args, **kwargs):
        global count
        count += 1
        result = func(*args, **kwargs)
        return result
    return inner


# while True:
#     @wrapper
#     def calc(count):
#         print(count)
#
#     calc(count)
for i in range(10):
    @wrapper
    def calc(count):
        print(count)

    calc(count)

注释的那块是死循环,不过代码稍微有点冗余。

这里更新了下,如下:

count = 0
def wrapper(func):
    def inner(*args, **kwargs):
        global count
        count += 1
        result = func(*args, **kwargs)
        return result
    return inner


@wrapper
def calc():
    print(count)


calc()

因为调用了一次,下面再加一个calc(),这样效果就出来了。

三、总结

大家好,我是皮皮。这篇文章主要分享了Python的装饰器问题,针对该问题给出了具体的解析和代码演示,帮助粉丝顺利解决了问题。

最后感谢粉丝【杰】提问,感谢【月神】、【东哥】给出的具体解析和代码演示,感谢【dcpeng】等人参与学习交流。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

Python列表中的深浅拷贝,你学废了嘛?

大家好,我是皮皮。

一、前言

前几天在Python最强王者交流群有个叫【Chloe】的粉丝问了一个Python深浅拷贝的问题,这里拿出来给大家分享下,一起学习下。

二、解决过程

深浅拷贝这个东东在列表中挺烦人的,傻傻分不清楚,不过不慌,明白了之后,就不难了。

那么再看上面那道题目,【Chloe】先copy了才改变了list1的值,所以lst2的第二个元素还是20。

至于其他的,就比较好懂一些了,看下图的解析,很清晰。

修改原对象内层对象会对浅拷贝造成影响,而修改原对象外层对象则不会对浅拷贝产生影响。

这里有一个地方需要注意,细节的东西,不然就会把自己绕进去了。

三、总结

大家好,我是皮皮。这篇文章主要分享了Python列表中的深浅拷贝的问题,给出了具体的解析和代码演示,帮助粉丝顺利解决了问题。

最后感谢粉丝【Chloe】提问,感谢【杰】给出的具体解析和代码演示,感谢【dcpeng】等人参与学习交流。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

按照A列进行分组并计算出B列每个分组的平均值,然后对B列内的每个元素减去分组平均值

大家好,我是皮皮。

一、前言

前几天在Python星耀交流群有个叫【在下不才】的粉丝问了一个Pandas的问题,按照A列进行分组并计算出B列每个分组的平均值,然后对B列内的每个元素减去分组平均值,这里拿出来给大家分享下,一起学习。

二、解决过程

这个看上去倒是不太难,但是实现的时候,总是一看就会,一用就废。这里给出【瑜亮老师】的三个解法,一起来看看吧!

方法一:使用自定义函数

代码如下:

import pandas as pd

lv = [1, 2, 2, 3, 3, 4, 2, 3, 3, 3, 3]
num = [122, 111, 222, 444, 555, 555, 333, 666, 666, 777, 888]
df = pd.DataFrame({'lv': lv, 'num': num})

def demean(arr):
    return arr - arr.mean()
# 按照"lv"列进行分组并计算出"num"列每个分组的平均值,然后"num"列内的每个元素减去分组平均值
df["juncha"] = df.groupby("lv")["num"].transform(demean)
print(df

# transform 也支持 lambda 函数,效果是一样的,更简洁一些
# df["juncha"] = df.groupby("lv")["num"].transform(lambda x: x - x.mean())
# print(df)

方法二:使用内置函数

代码如下:

import pandas as pd

lv = [1, 2, 2, 3, 3, 4, 2, 3, 3, 3, 3]
num = [122, 111, 222, 444, 555, 555, 333, 666, 666, 777, 888]
df = pd.DataFrame({'lv': lv, 'num': num})


gp_mean = df.groupby('lv')["num"].mean().rename("gp_mean").reset_index()
df2 = df.merge(gp_mean)
df2["juncha"] = df2["num"] - df2["gp_mean"]
print(df2)

方法三:使用 transform

transform能返回完整数据,输出的形状和输入一致(输入是num列,输出也是一列),代码如下:

import pandas as pd

lv = [1, 2, 2, 3, 3, 4, 2, 3, 3, 3, 3]
num = [122, 111, 222, 444, 555, 555, 333, 666, 666, 777, 888]
df = pd.DataFrame({'lv': lv, 'num': num})


# 方法三: 使用 transform。
df["gp_mean"] = df.groupby('lv')["num"].transform('mean')
df["juncha"] = df["num"] - df["gp_mean"]
print(df)
# 直接输出结果,省略分组平均值列
df["juncha"] = df["num"] - df.groupby('lv')["num"].transform('mean')
print(df)

这样问题就完美地解决啦!

后面他还想用类的方式写,不过看上去没有那么简单。

三、总结

大家好,我是皮皮。这篇文章主要分享了Pandas处理相关知识,基于粉丝提出的按照A列进行分组并计算出B列每个分组的平均值,然后对B列内的每个元素减去分组平均值的问题,给出了3个行之有效的方法,帮助粉丝顺利解决了问题。

最后感谢粉丝【在下不才】提问,感谢【德善堂小儿推拿-瑜亮老师】给出的具体解析和代码演示,感谢【月神】提供的思路,感谢【dcpeng】等人参与学习交流。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

Python网络爬虫真实的URL看来真不能光凭着XHR找

大家好,我是我是皮皮。

一、前言

前几天在Python最强王者交流群有个叫【Rr】的粉丝问了一个关于Python网络爬虫问题,这里拿出来给大家分享下,一起学习。

乍一看,这个是乱码,后来一想,这个也许不是真实的url,大概率是找错了。因为原网页是下图这样的,人畜无害。

二、解决过程

一开始以为是预览的问题,有时候在浏览器中预览状态确实会有乱码,看得并不完整,于是乎先让其看看response一栏。

事实上,response一栏显示的也是一样的,和预览一模一样,这就很尴尬了。

不过不慌,想到这里,大概率可以确定是url没有找对,得重新去寻找,让粉丝发来url,之后真相大白。这里【德善堂小儿推拿-瑜亮老师】大佬发来贺电,如下图所示:

看来真不能光凭着xhr找,之后根据线索就得到对应的url了。

真实的url在下图:

后来【Rr】顺利解析了自己想要的字段。

看上去虽然有乱码,但是转码之后就一切正常了,完美解决!

三、总结

大家好,我是皮皮。这篇文章基于粉丝提问,针对Python网络爬虫中的url寻找的问题,给出了具体说明和演示,顺利地帮助粉丝解决了问题。下次遇到类似的问题,看来真不能光凭着xhr找,有时候真实的url就藏在其他地方。

最后感谢粉丝【Rr】提问,感谢【德善堂小儿推拿-瑜亮老师】、【dcpeng】、【果冻】、【蓬山已无青鸟】大佬给予的支持和积极参与学习。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

盘点Pandas中数据删除drop函数的一个细节用法

大家好,我是皮皮。

一、前言

前几天在Python最强王者群有个叫【Chloe】的粉丝问了一个关于Pandas中的drop函数的问题,这里拿出来给大家分享下,一起学习。

二、解决过程

下图是粉丝写的代码。

index是索引的意思,我感觉这块写在一起了,看上去不太好理解,在里边还多了一层筛选。这里给出【月神】佬的解答,一起来看看吧!

直接上图了,如下图所示:

下图是官网关于该函数的解析。

之前我一直用的是columns,确实好像很少看到index,这下清晰了。不过【月神】还是推荐使用反向索引。

三、总结

大家好,我是皮皮。这篇文章基于粉丝提问,针对Pandas中数据删除的问题,给出了具体说明和演示,顺利地帮助粉丝解决了问题!

最后感谢粉丝【Chloe】提问,感谢【(这是月亮的背面)】和【dcpeng】大佬给出的示例和代码支持。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

多张excel表做连接,就比如1表有A,B,C列,2表有A,B,D列,我想把A,B,C,D合到一张表

大家好,我是皮皮。

一、前言

前几天在Python铂金群有个叫【水方人子】的粉丝问了一个关于excel处理的问题,这里拿出来给大家分享下,一起学习。

能不能把多张excel表做连接,就比如1表有A,B,C列,2表有A,B,D列,我想把A,B,C,D合到一张表上面,可以吗,就跟数据库左连接一样?

二、解决过程

一开始想到的方法是Excel中的vlookup函数,确实是可以做。

不过在Python群里边,还是尽量用Python来操作一发,这里【Lee】大佬给了几个代码。

代码这里贴出来了,如下所示:

import pandas as pd 

#用append
df = pd.read_excel(r"C:\Users\Administrator\Downloads\test.xlsx", sheet_name=['Sales','Return','Purchase'])
sales = df.get('Sales')
ret = df.get('Return')
purchase = df .get('Purchase')
result = sales.append([ret,purchase], sort=False)
result

之后用merge来操作,代码如下。

左连接的代码如下:

xc = pd.merge(sales,ret, how='left')
xc

右链接的代码如下:

pd.merge(xc,purchase, how='right')

之后用concat连接,代码如下:

# 用concat连接
df_contact = pd.concat(pd.read_excel(r"C:\Users\Administrator\Downloads\test.xlsx", sheet_name=None), ignore_index=True)
df_contact

三、总结

大家好,我是皮皮。这篇文章基于粉丝提问,针对多张excel表做连接,就比如1表有A,B,C列,2表有A,B,D列,我想把A,B,C,D合到一张表的问题,给出了具体说明和演示,顺利地帮助粉丝解决了问题!

最后感谢粉丝【水方人子】提问,感谢【Lee】大佬给出的示例和代码支持,感谢粉丝【月神】、【铭记yu心】、【杨羊】、【dcpeng】、【LEE】、【冫马讠成】等人参与学习交流。

Python网络爬虫过程中,构建网络请求的时候,参数`stream=True`的使用

大家好,我是皮皮。

一、前言

前几天在Python最强王者交流群【德善堂小儿推拿-瑜亮老师】分享了一个关于Python网络爬虫的问题,这里拿出来给大家分享下,一起学习。

二、解决过程

这里【PI】大佬提出了思路,的确可行。

【皮皮】给了一份代码,取巧,这里就不展示了。后来【月神】给了一份可行的代码,如下所示:

for url in all_url:
    resp = requests.get(url, headers=header, stream=True)
    content_length = resp.headers.get('content-length')
    if content_length and int(content_length) > 10240:
        print(url)

程序运行之后,不到1秒就出来结果了,没想到jupyter里边可以自动显示时间,以前也有看到,但是没有留意,Pycharm里边是没有的,这里来看,jupyter还是蛮香,Pycharm还得自己设置打印时间。

【月神】的方法完全满足题目要求,不过这个文件解析有点慢。

后来【德善堂小儿推拿-瑜亮老师】大佬摊牌了:题目就考这一个知识点:stream=True,别的都是简单的很。这里给出了代码:

import requests
import time

url = ['https://wap.game.xiaomi.com/index.php?c=app&v=download&package=com.joypac.dragonhero.cn.mi&channel=meng_4001_2_android',
       'https://wap.game.xiaomi.com/index.php?c=app&v=download&package=com.yiwan.longtengtianxia.mi&channel=meng_4001_2_android',
       'https://wap.game.xiaomi.com/index.php?c=app&v=download&package=com.netease.mrzh.mi&channel=meng_4001_2_android']
header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}

start = time.time()
# 方法一:判断response.headers里面的内容
for i in url:
    resp = requests.get(i, headers=header, stream=True)
    if 'Content-Length' in resp.headers:
        print(f'有效url有:\n {i}')
end = time.time()
print(f'测试完毕!共耗时: {end - start:.2f}秒')

# 方法二:判断响应的字节流大小
start2 = time.time()
for i in url:
    resp = requests.get(i, headers=header, stream=True)
    chunk_size = 1024
    for data in resp.iter_content(chunk_size=chunk_size):
        if len(data) > 800:
            print(f'有效url有:\n {i}')
        break
end2 = time.time()
print(f'测试完毕!共耗时: {end2 - start2:.2f}秒')

下面是代码截图:

那小伙伴们就问了,那个stream参数是干啥用的啊?不慌,【月神】丢来一个解析。

如此就清晰多了。

三、总结

大家好,我是皮皮。这篇文章主要分享了在Python网络爬虫过程中,构建网络请求的时候,参数stream=True的使用,使用了一个具体的实例给大家演示了该参数的具体用法!关于该参数的介绍,请参考文中的解析。

最后感谢【德善堂小儿推拿-瑜亮老师】分享,感谢【皮皮】、【PI】、【月神】大佬给出的思路和代码支持,感谢粉丝【冫马讠成】、【孤独】等人参与学习交流。

selenium如何添加代理IP?

大家好,我是皮皮。

一、前言

前几天在Python钻石群有个叫【进击的python】的粉丝问了一个关于Python中selenium如何添加代理IP的问题,这里拿出来给大家分享下,一起学习。

二、解决过程

这里给出【PI】吴老板大佬的解答,一起来看看吧!

直接上图了,如下图所示:

他写这个已经是3年前的时候。

当年还是个实习生呢,现在是吴老板了。

三、总结

大家好,我是Python进阶者。这篇文章基于粉丝提问,针对selenium中怎样添加代理IP的问题,给出了具体说明和演示,顺利地帮助粉丝解决了问题!

最后感谢粉丝【进击的python】提问,感谢【PI】吴老板大佬给出的示例和代码支持。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

把一个csv数据文件,第一行头文件(字段名)不变,按某列(第四列)降序排列,另行保存为csv 文件

大家好,我是皮皮。

一、前言

前几天在Python白银交流群有个叫【大侠】的粉丝问了一个关于Python自动化办公的问题,这里拿出来给大家分享下,一起学习。把一个csv数据文件,第一行头文件(字段名)不变,按某列(第四列)降序排列,另行保存为csv 文件。

二、解决过程

【dcpeng】解答

这里给出了一个思路,传统的常规思路,虽然很low,但是可行。

【德善堂小儿推拿-瑜亮老师】解答

瑜亮老师上来直接丢了代码,简直王炸,这里分享给大家。

import pandas as pd
# 根据你自己的文件设置编码
df = pd.read_csv("test.csv", encoding="gbk")
print(df.head())
# 按照“总价”列降序,并重置索引
# 一列,一种排序方式也可以不写方括号。
# 如果想按照多列排序可以把列名都写进 by 参数列表中,并把它们的排序方式也写进 ascending 参数列表)
df = df.sort_values(by=["总价"], ascending=[False], ignore_index=True)
print(df.head())
# 另存为 test2.csv ,不写入索引
df.to_csv("test2.csv", index=False)

小伙伴们直呼好家伙,着实给力,都不用百度了。

下图是【瑜亮老师】学习Python数据分析的时候,看书做的笔记图。

关键的地方还有笔记,用荧光笔标记了。后来【大侠】自己就上道了。

df.sort_values(col2, ascending=False):按照列col1降序排列数据
df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列数据

三、总结

大家好,我是皮皮。这篇文章基于粉丝提问,针对把一个csv数据文件,第一行头文件(字段名)不变,按某列(第四列)降序排列,另行保存为csv文件的问题,给出了具体说明和演示,顺利帮助粉丝解决了问题,大家也学到了很多知识。

最后感谢粉丝【大侠】提问,感谢【德善堂小儿推拿-瑜亮老师】大佬给出的示例和代码支持,感谢粉丝【孤烟逐云】、【哈佛在等我呢~】、【dcpeng】、【冫马讠成】、【PI】、【沈复】等人参与学习交流。

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。