您的位置:首页 > 游戏 > 游戏 > 重庆网站建设模板服务_企业网站优化的方案_交换链接适用于哪些网站_网站seo服务

重庆网站建设模板服务_企业网站优化的方案_交换链接适用于哪些网站_网站seo服务

2025/2/12 4:51:45 来源:https://blog.csdn.net/weixin_42636075/article/details/145517695  浏览:    关键词:重庆网站建设模板服务_企业网站优化的方案_交换链接适用于哪些网站_网站seo服务
重庆网站建设模板服务_企业网站优化的方案_交换链接适用于哪些网站_网站seo服务

目录

  • 专栏导读
  • 1、库的介绍
  • 2、库的安装
  • 3、核心代码
  • 4、完整代码
  • 总结

专栏导读

  • 🌸 欢迎来到Python办公自动化专栏—Python处理办公问题,解放您的双手

  • 🏳️‍🌈 博客主页:请点击——> 一晌小贪欢的博客主页求关注

  • 👍 该系列文章专栏:请点击——>Python办公自动化专栏求订阅

  • 🕷 此外还有爬虫专栏:请点击——>Python爬虫基础专栏求订阅

  • 📕 此外还有python基础专栏:请点击——>Python基础学习专栏求订阅

  • 文章作者技术和水平有限,如果文中出现错误,希望大家能指正🙏

  • ❤️ 欢迎各位佬关注! ❤️

1、库的介绍

  • 我们有时候经常会将Excel文件转为json数据(本地),然后加载json数据作为匹配项,可以将里面的数据匹配给其他的表格中

2、库的安装

用途安装
pandas控制打开Excel的软件pip install pandas -i https://pypi.tuna.tsinghua.edu.cn/simple/
os获取绝对路径内置库无需安装

3、核心代码

  • ①:读取

# 读取Excel文件
df = pd.read_excel(file_path, dtype=str, keep_default_na="")# 生成字典
data = dict(zip(df[key_col], df[value_col]))
  • ②:写入

# 保存为JSON文件
with open(output_json_path, "w", encoding="utf-8") as f:json.dump(data, f, ensure_ascii=False, indent=4)

4、完整代码

import os
import json
import pandas as pddef excel_to_dict(folder_path, key_col, value_col, output_json_path):"""读取指定文件夹中的第一个Excel文件,并将其中的两列数据转换为字典,最后保存为JSON文件。:param folder_path: Excel文件所在的文件夹路径:param key_col: 字典的键对应的列名:param value_col: 字典的值对应的列名:param output_json_path: 输出的JSON文件路径"""try:# 获取文件夹中的第一个Excel文件excel_file = os.listdir(folder_path)[0]file_path = os.path.join(folder_path, excel_file)# 读取Excel文件df = pd.read_excel(file_path, dtype=str, keep_default_na="")# 生成字典data = dict(zip(df[key_col], df[value_col]))# print(data)if not './json':os.mkdir('./json')# 保存为JSON文件with open(output_json_path, "w", encoding="utf-8") as f:json.dump(data, f, ensure_ascii=False, indent=4)print(f"数据已保存至 {output_json_path}")except Exception as e:print(f"处理文件时出错: {e}")# 处理花名册
excel_to_dict('./花名册/', '新工姓名', '地区', "json数据/hmc_name_area.json")

总结

  • 希望对初学者有帮助

  • 致力于办公自动化的小小程序员一枚

  • 希望能得到大家的【一个免费关注】!感谢

  • 求个 🤞 关注 🤞

  • 此外还有办公自动化专栏,欢迎大家订阅:Python办公自动化专栏

  • 求个 ❤️ 喜欢 ❤️

  • 此外还有爬虫专栏,欢迎大家订阅:Python爬虫基础专栏

  • 求个 👍 收藏 👍

  • 此外还有Python基础专栏,欢迎大家订阅:Python基础学习专栏

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com