python xml 用什么模块

据我所知 没有一步到位的方法。
你可以自己写一个, 读json然后转成xml, 读xml转json

❷ 如何在命令行中打印格式化的json和xml数据

如何在命令行中打印格式化的json和xml数据

  • 虽然现在JSON以其轻量级,易解析等诸多优点大行其道,但也有一些系统的API返回的数据是XML格式的,python没有现成的mole像格式化json一样格式化xml。

  • 当然,你可以用lxml自己写一个,这也很简单。

  • (如果你真的写了,那也请你不吝分享出来…LOL)。虽然没有现成的python mole,但是有现成的工具,那就是xmllint。

  • 关于xmllint的介绍自己看doc就是了,他是libxml2的一部分,所以在大多数的*nix系统上都是默认自带的。用起来也很简单

❸ json数据格式和xml数据格式的区别和用法是什么

JSON与XML的区别:

1 、可读性。JSON和XML的可读性可谓不相上下,一边是简易的语法,一边是规范的标签形式,很难分出胜负。

2、可扩展性。XML天生有很好的扩展性,JSON当然也有,没有什么是XML能扩展,JSON不能的。不过JSON在javascript主场作战,可以存储Javascript复合对象,有着xml不可比拟的优势。

3、编码难度。XML有丰富的编码工具,比如Dom4j、JDom等,JSON也有提供的工具。无工具的情况下,相信熟练的开发人员一样能很快的写出想要的xml文档和JSON字符串,不过,xml文档要多很多结构上的字符。

用法:JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式。易于人阅读和编写,同时也易于机器解析和生成。XML可以做为一个公共的标准格式为不同格式之间提供统一接口。

❹ python 配置文件 json xml 哪个好

当要面对不确定的数据交换需求的时候才考虑使用XML,因为将来谁用谁解析,和我没有关系专。
而且XML就是一属个大坑,各种异常,各种编码,各种过滤都要考虑,稍有疏忽就掉下去爬不上来。

Json这个东西也不是个好玩意,虽然各种解析库都有,但是对于我们最求更短更快的程序员而言,不是通过HTTP传输数据的时候是绝对不会考虑使用Json这个大爷的。

如果只是一个配置参数的集合你就直接简单的用文本文件存就可以了,你还可以加密,你还可以搞得最后自己也看不懂。

❺ 用python怎么实现json和xml的互转

直接转换的包是没有的。但python都有相关的处理json和xml的模块:
python <->json 推荐用simplejson或json;
python <->xml 推荐使用 ElementTree, python2.5已自带。
所以,你可以尝试做xml->python的,再利用simplejson的python->json的,就可以xml->json了(反之亦然)
不过要注意几点:
(1)再jsonify python object之前,需要先把python object unicode化,反正要注意编码问题就是了。
(2)xml->python,或者说xml->json有很多种conversion,常见的比如 tuple tree,JsonML, javascript-like JSON (Parker convention), XML-like JSON (see the BadgerFish convention). 各有优缺点,看你怎么选择啦。
(3)有一些现成的通过xslt把xml直接转成json的。

❻ 如何使用python解析超大XML文档

在工作时最有吸引力的地方在于可以尽量避免使用昔日的技术。主机、租用线路、COBOL语言......没有人应该要处理这些东西了,对不对?不幸的是,你最终会与现实发生冲突,即使是2014年,大家都知道JSON是最好的方式,你的票务供应商(你无法控制的)会告诉你,只有使用XML导出才能让大容量的数据输出他们的系统。
唉~~~~,好,很好,无所谓。这只是一次性的事情,我不需要照顾和养活这个XML,我只需要解析它并将数据保存到Postgres中,我们就可以利用它。不应该太困难,我需要写一点python脚本…
import xml.etree.cElementTree as ET
tree = ET.parse('huge.xml')
for ticket_node in tree.findall('ticket'):
#etc...
......这将工作的非常好,如果我们谈论的是一个几MB的XML文档,但是如果遇到的是huge.xml它是1.3GB的巨大文档,这种方法只会融化你的笔记本电脑(以16GB的MacBookPro,一旦python的过程花了超过约3GB的内存,系统变得几乎完全反应迟钝,并且它几乎还没有完成)。回到原点。
首先让我们快速浏览一下我们的数据。
<?xml version="1.0" encoding="UTF-8"?>
<tickets report_date="20140217">
<ticket>
<!-- various ticket fields, some of which I want -->
<comments type="array">
<comment>
<!-- various comment fields, some of which I want -->
</comment>
<!-- possibly more comment tags -->
</comments>
</ticket>
<!-- many, many ticket tags -->
</tickets>
不是很复杂,作为一个整体它不是一个真正的文件中,<ticket>节点只是一个列表,每一类又是一个小文件,我想挑出几部分出来。我不需要做针对树的任何复杂的遍历,只是希望从每个<ticket>节点获得一些数据然后把它扔掉再读下一个。原来ElementTree的对眼前这个场景提供了一个工具:iterparse()。让我们再试一次:
import xml.etree.cElementTree as ET
for event, element in ET.iterparse('huge.xml'):
if event == 'end' and element.tag == 'ticket':
#process ticket...
…什么? !我的笔记本电脑又融化了!跟parse-the-whole-file的方法一样使用了完全相同的内存(和系统响应能力)。到底发生了什么事?
好吧,稍微google了一下,google告诉我,当iterparse()读取元素时,它仍然是在内存中建立了一个完整的文档树,就像我一开始使用parse()方法一样。几个博客和stackoverflow的答案推荐添加element.clear()方法在循环结束时清理你不需要的对象,可以限制内存消耗。我拯救了你的麻烦:它不工作。其他博客,so的答案,甚至一个IBM白皮书表明需要在循环结束时进行更彻底的清扫工作结束:
import lxml.etree as ET #the IBM piece used lxml but I tried cElementTree also
for event, element in ET.iterparse('huge.xml'):
if event == 'end' and element.tag == 'ticket':
#process ticket...
element.clear()
while elem.getprevious() is not None:
del elem.getparent()[0]
......哎呀!我溶化了另一台笔记本电脑!
为什么不工作?坦率地说,我不知道。
我稍微离题一下来说说为什么我爱Python。作为一个DBA和系统工程师,我面对着大量的一次性编程挑战。移动这个从这里到那里、Munge数据、将数据从这里迁移到哪里。这种类型的挑战是非常适合于蛮力编程解决问题的这种方式。总之,有时是不值得在建立一个优雅的、易于维护的解决方案上花费任何时间。有时候,你只需要解决这个问题,然后忘掉它。 在处理这类问题上Python最棒的,简洁的语法、良好的设计理念、丰富的库都有助于这个工具,很容易快速解决您碰到的任何问题。即使速度比同等的Java解决方案的10倍还慢,如果需要5分钟的时间写而不是5小时,我更愿意使用python,因为人类工时比CPU工时更有价值。
所有这一切都证明下述方式解决了我的问题,而不会融化的笔记本电脑:
import xml.etree.cElementTree as ET
def process_buffer(buf):
tnode = ET.fromstring(buf)
#pull it apart and stick it in the database
inputbuffer = ''
with open('huge.xml','rb') as inputfile:
append = False
for line in inputfile:
if '<ticket>' in line:
inputbuffer = line
append = True
elif '</ticket>' in line:
inputbuffer += line
append = False
process_buffer(inputbuffer)
inputbuffer = None
del inputbuffer #probably rendant...
elif append:
inputbuffer += line
不是最优雅,或有效率,或者通用的解决方案,但它可以工作。刚刚看了手边的手册,利用其结构的简单性,在解析之前根据xml文件的内容将它切成可管理的块,然后解析和处理每个块,终于可以确保不再需要更长的时间来把它全部处理完。

❼ python中为什么用json有什么作用

今天我也在这个问题上纠结很久。最后才想明白,我来回答下。

网上很多网友总结了json模块的用法,但没说json模块有什么用,干嘛要有这个模块。可能都明白、太简单,觉得没必要说。但作为小白的我不明白,而且在练习使用load()和mp()时遇到错误。

首先纠正,json格式不是字符串。json与python里面的字典是一样的格式。

python的json模块四个方法的作用为:

mps()#把数据转成字符串;
loads()#把字符串符号‘’去掉;
mp(x,f)#将x的内容直接写入f,不改变格式;
load(x,f)#读取f保存为x,同样不改变格式。

重点来了,f = open()下的read()的方法,输出是字符串,wirte()方法的输入也必须是字符串。

结论:因为f=open()下的读写方法都必须是字符串,很不方便。而非字符串的数据大多是json格式,所以就有了json模块。方便读写非字符串的数据。

因为这个目的,json模块的loads()和mps()方法有些鸡肋,还造成困扰,因为明明json不是字符串,干嘛要转成字符串,另外mp()和load()方法表面上和它们不一样。只有明白json模块的目的,才会搞明白。

在python 3.6的说明文档中,把json模块放在了《7.2.文件读写》部分。我也是看到这里才去练习json模块。但出问题,有些糊涂,明白json模块的作用后,才更清楚干嘛把json模块放这里。

小白的浅见,若错误请指教,谢谢。