# 处理多个条件语句
conditions = [
size == "lg",
color == "blue",
price < 100,
]
if all(conditions): # if any(conditions):
print("Yes, I want to but the product.")
# 找到list中重复最多的元素
lst = [1, 2, 3, 4, 3, 4, 4, 5, 6, 3, 1, 6, 7, 9, 4, 0]
most_repeated_item = max(lst, key=lst.count)
print(most_repeated_item)
# 使用*args传递多个参数
def sum_of_squares(*args):
return sum([item**2 for item in args])
print(sum_of_squares(2, 3, 4))
print(sum_of_squares(2, 3, 4, 5, 6))
# 将两个字典进行合并
d1 = {"v1": 22, "v2": 33}
d2 = {"v2": 44, "v3": 55}
d3 = {**d1, **d2}
print(d3) # {'v1': 22, 'v2': 44, 'v3': 55}
# 通过两个list生成一个字典
keys = ['a', 'b', 'c']
vals = [1, 2, 3]
zipped = dict(zip(keys, vals))
# 字典按照value进行排序
d = {
"v1": 80,
"v2": 20,
"v3": 40,
"v4": 20,
"v5": 10,
}
sorted_d = dict(sorted(d.items(), key=lambda item: item[1], reverse=True))
print(sorted_d)
# one-hot独热编码keras版
from keras.preprocessing.text import Tokenizer
samples = ['大烩菜 的 定义 应该 是 路边摊 吧 ? 我 记得 他 师父 好像 就是 路边摊 。 谁 吃 个 烩菜 还 上 三 楼 呀',
'这 应该 不 可能 , 毕竟 得 办 营业执照 , 应该 能 跟 小 火锅 一样 挺 一段时间 吧 , 坚持 不 了 两周 [ 捂脸 ] [ 捂脸 ] [ 捂脸 ] [ 捂脸 ] , 大 烩饭 便宜 才会 多 人 吃',
'半个月 就 关门 了 , 赌 一把 卫龙 辣条',
'超市 呢 不交待 了',
'农村 三人行 开始 搞 起 “ 大烩菜 ” 了 ! 大家 猜 猜 这次 能够 坚持 多久 啊 ! \n “ 三人行 ” 创业 经历 了 太多 坎坷 , 屡 败 屡 战 啊 ! \n 1 、 横店 群演 , 失败 \n2 、 美团i外卖 , 失败 \n 3 、 火锅 店 , 失败 \n4 、 学 大车 , 失败 \n5 、 开 超市 , 失败\n6 、 卖 椰子 , 跑路\n7 、 进 厂 打工 , 失败 \n 这 三人 真是 “ 屡 败 屡 战 ” 的 典范 啊 ! 但是 现在 市场 的 萧条 大 环境 下 , 真 不 看好 他们 的 这次 创业 ! \n大胆 预测 : 坚持 不 了 一年 !',
'这样 的 门面 一般 不能 做 餐饮 , 做 的 话 要 变更 商业 用房 用途 , 还要 有 餐饮 许可证',
'个人 觉得 烩菜 需要 吃 个 热闹 的 氛围 , 一群人 在 大堂 里 吃吃吃 , 看着 就 人气 很 旺 很好吃 。 你 这 楼上 楼下 , 还要 自己 烫手 地端 来 端 去 , 很 不 方便 啊 [ 黑线 ]',
'下 集 预告 : 兄弟们 , 大烩菜 太难 做 了 , 我们 决定 开 一家 海底捞',
'这个 烩菜 很 累 的 , 后厨 要 弄 得 干净 很麻烦 , 进 菜 洗 菜 切菜 炒菜 打饭 收拾 卫生 , 很 累 的',
'首先 我 来 分析 一下 , 目前 郑州 是 封城 状况 , 大部分 人 都 居家 办公 , 而且 至少 要 持续 半个月 , 而 他们 这 半个月 不会 有 任何 收入 , 再者 即便 解封 了 他们 的 技术 也 不到家 , 没有 竞争 能力 , 租 了 这么 大 的 店面 , 卖 绘菜 根本 支撑 不 起 , 这条路 明显 是 剧本 , 他们 压 根 都 没有 考虑到 客流量 和 口味 方面 就 盲目 跟风 开店 , 统一 右上 角',
'有 阿峰 , 农村 三人行 必 败']
# num_words:分词器只保留出现频率最高的前1000个词
# filters:过滤掉文本列表samples中常见的中英文特殊字符,可以自行定义
tokenizer = Tokenizer(num_words=1000, filters='!!“”"#¥$%&(())*+,,-。.、/::;;《<=》>??@【[\\】]……·^——_`{|}~\t\n')
tokenizer.fit_on_texts(samples)
sequences = tokenizer.texts_to_sequences(samples)
one_hot_results = tokenizer.texts_to_matrix(samples, mode='binary')
word_index = tokenizer.word_index
word_index