广东微信网站制作报价,工作室网站建设要多大内存,网站建设公司河南郑州,建设网站前景怎么样1、性能方面
1. connection.queries
前面我们介绍过 connection.queries 的用法#xff0c;比如我们执行了一条查询之后#xff0c;可以通过下面的方式查到我们刚刚的语句和耗时 from django.db import connectionconnection.queries
[{sql: S…1、性能方面
1. connection.queries
前面我们介绍过 connection.queries 的用法比如我们执行了一条查询之后可以通过下面的方式查到我们刚刚的语句和耗时 from django.db import connectionconnection.queries
[{sql: SELECT polls_polls.id, polls_polls.question, polls_polls.pub_date FROM polls_polls,
time: 0.002}]仅仅当系统的 DEBUG 参数设为 True上述命令才可生效而且是按照查询的顺序排列的一个数组
数组的每一个元素都是一个字典包含两个 Keysql 和 time
sql 为查询转化的查询语句 time 为查询过程中的耗时
因为这个记录是按照时间顺序排列的所以 connection.queries[-1] 总能查询到最新的一条记录。
多数据库操作
如果系统用的是多个数据库那么可以通过 connections[db_alias].queries 来操作比如我们使用的数据库的 alias 为 user from django.db import connectionsconnections[user].queries如果想清空之前的记录可以调用 reset_queries() 函数
from django.db import reset_queries
reset_queries()2. explain
我们也可以使用 explain() 函数来查看一条 QuerySet 的执行计划包括索引以及联表查询的的一些信息
这个操作就和 MySQL 的 explain 是一样的。 print(Blog.objects.filter(titleMy Blog).explain())
Seq Scan on blog (cost0.00..35.50 rows10 width12)Filter: (title My Blog::bpchar)也可以加一些参数来查看更详细的信息 print(Blog.objects.filter(titleMy Blog).explain(verboseTrue, analyzeTrue))
Seq Scan on public.blog (cost0.00..35.50 rows10 width12) (actual time0.004..0.004 rows10 loops1)Output: id, titleFilter: (blog.title My Blog::bpchar)
Planning time: 0.064 ms
Execution time: 0.058 ms之前在使用 Django 的过程中还使用到一个叫 silk 的工具它可以用来分析一个接口各个步骤的耗时有兴趣的可以了解一下。
2、使用标准的数据库优化技术
数据库优化技术指的是在查询操作中 SQL 底层本身的优化不涉及 Django 的查询操作
比如使用 索引 index可以使用 Meta.indexes 或者字段里的 Field.db_index 来添加索引
如果频繁的使用到 filter()、exclude()、order_by() 等操作建议为其中查询的字段添加索引因为索引能帮助加快查询
3、理解 QuerySet
1. 理解 QuerySet 获取数据的过程
1) QuerySet 的懒加载
一个查询的创建并不会访问数据库直到获取这条查询语句的具体数据的时候系统才会去访问数据库 q Entry.objects.filter(headline__startswithWhat) # 不访问数据库q q.filter(pub_date__ltedatetime.date.today()) # 不访问数据库q q.exclude(body_text__icontainsfood) # 不访问数据库print(q) # 访问数据库比如上面四条语句只有最后一步系统才会去查询数据库。
2) 数据什么时候被加载
迭代、使用步长分片、使用len()函数获取长度以及使用list()将QuerySet 转化成列表的时候数据才会被加载
这几点情况在我们的第九篇笔记中都有详细的描述。
3) 数据是怎么被保存在内存中的
每一个 QuerySet 都会有一个缓存来减少对数据库的访问操作理解其中的运行原理能帮助我们写出最有效的代码。
当我们创建一个 QuerySet 的之后并且数据第一次被加载对数据库的查询操作就发生了。
然后 Django 会保存 QuerySet 查询的结果并且在之后对这个 QuerySet 的操作中会重复使用不会再去查询数据库。
当然如果理解了这个原理之后用得好就OK否则会对数据库进行多次查询造成性能的浪费比如下面的操作 print([e.headline for e in Entry.objects.all()])print([e.pub_date for e in Entry.objects.all()])上面的代码同样一个查询操作系统会查询两遍数据库而且对于数据来说两次的间隔期之间Entry 表可能的某些数据库可能会增加或者被删除造成数据的不一致。
为了避免此类问题我们可以这样复用这个 QuerySet : queryset Entry.objects.all()print([p.headline for p in queryset]) # 查询数据库print([p.pub_date for p in queryset]) # 从缓存中直接使用不会再次查询数据库这样的操作系统就只执行了一遍查询操作。
使用数组的切片或者根据索引(即下标)不会缓存数据
QuerySet 也并不总是缓存所查询的结果如果只是获取一个 QuerySet 部分数据会查询有是否这个 QuerySet 的缓存 有的话则直接从缓存中获取数据没有的话后续也不会将这部分数据缓存到系统中。
举个例子比如下面的操作在缓存整个 QuerySet 数据前查询一个 QuerySet 的部分数据时系统会重复查询数据库 queryset Entry.objects.all()print(queryset[5]) # 查询数据库print(queryset[5]) # 再次查询数据库而在下面的操作中整个 QuerySet 都被提前获取了那么根据索引的下标获取数据则能够从缓存中直接获取数据 queryset Entry.objects.all()[entry for entry in queryset] # 查询数据库print(queryset[5]) # 使用缓存print(queryset[5]) # 使用缓存如果一个 QuerySet 已经缓存到内存中那么下面的操作将不会再次查询数据库 [entry for entry in queryset]bool(queryset)entry in querysetlist(queryset)2. 理解 QuerySet 的缓存
除了 QuerySet 的缓存单个 model 的 object 也有缓存的操作。
我们这里简单理解为外键和多对多的关系。
比如下面外键字段的获取blog 是 Entry 的一个外键字段 entry Entry.objects.get(id1)entry.blog # Blog 的实例被查询数据库获得entry.blog # 第二次获取使用缓存信息不会查询数据库而多对多关系的获取每次都会被重新去数据库获取数据 entry Entry.objects.get(id1)entry.authors.all() # 查询数据库entry.authors.all() # 再次查询数据库当然以上的操作我们都可以通过 select_related() 和 prefetch_related() 的方式来减少数据库的访问这个的用法在前面的笔记中有介绍。
4、操作尽量在数据库中完成而不是在内存中
举几个例子
在大多数查询中使用 filter() 和 exclude() 在数据库中做过滤而不是在获取所有数据之后在 Python 里的 for 循环里筛选数据在同一个 model 的操作中如果有涉及到其他字段的操作可以用到 F 表达式使用 annotate 函数在数据库中做聚合aggregate的操作
如果某些查询比较复杂可以使用原生的 SQL 语句这个操作也在前面有过一篇完整的笔记介绍过
5、使用唯一索引来查询单个对象
在使用 get() 来查询单条数据的时候有两个理由使用唯一索引unique或 普通索引db_index
一个是基于数据库索引查询会更快
另一个是如果多条数据都满足查询条件查询会慢得多而在唯一索引的约束下则保证这种情况不会发生
所以使用下面的 id 进行匹配 会比 headline 字段匹配快得多因为 id 字段在数据库中有索引且是唯一的
entry Entry.objects.get(id10)entry Entry.objects.get(headlineNews Item Title)而下面的操作可能会更慢
entry Entry.objects.get(headline__startswithNews)首先 headline 字段上没有索引会导致数据库获取速度慢
其次查询并不能保证只返回一个对象如果匹配上来多个对象且从数据库中检索并返回数百数千条记录后果会很严重其实就会报错get() 能接受的返回只能是一个实例数据。
6、如果知道需要什么数据那么就立刻查出来
能一次性查询所有需要的相关的数据的话就一次性查询出来不要在循环中做多次查询因为那样会多次访问数据库
所以这就需要理解并且用到 select_related() 和 prefetch_related() 函数
7、不要查询你不需要的数据
1. 使用 values() 和 values_list() 函数
如果需求仅仅是需要某几个字段的数据可以用到的数据结构为 dict 或者 list可以直接使用这两个函数来获取数据
2. 使用 defer() 和 only()
如果明确知道只需要或者不需要什么字段数据可以使用这两个方法一般常用在 textfield 上避免加载大数据量的 text 字段
3. 使用 count()
如果想要获取总数使用 count() 方法而不是使用 len() 来操作如果数据有一万条len() 操作会导致这一万条数据都加载到内存里然后计数。
4. 使用 exists()
如果仅仅是想查询数据是否至少存在一条可以使用 if QuerySet.exists() 而不是 if queryset 的形式
5. 使用 update() 和 delete()
能够批量更新和删除的操作就使用批量的方法挨个去加载数据更新数据然后保存是不推荐的
6. 直接使用外键的值
如果需要外键的值直接调用早就在这个 object 中的字段而不是加载整个关联的 object 然后取其主键id
比如推荐
entry.blog_id而不是
entry.blog.id7. 如果不需要排序的结果就不要order_by()
每一个字段的排序都是数据库的操作需要额外消耗性能的所以如果不需要的话尽量不要排序
如果在 Meta.ordering 中有一个默认的排序而你不需要可以通过 order_by() 不添加任何参数的方法来取消排序
为数据库添加索引可以帮助提高排序的性能
8、使用批量的方法
1. 批量创建
对于多条 model 数据的创建尽可能的使用 bulk_create() 方法这是要优于挨个去 create() 的
2. 批量更新
bulk_update 方法也优于挨个数据在 for 循环中去 save()
3. 批量 insert
对于 ManyToMany 方法使用 add() 方法的时候添加多个参数一次性操作比多次 add 要好
my_band.members.add(me, my_friend)要优于
my_band.members.add(me)
my_band.members.add(my_friend)4. 批量 remove
当去除 ManyToMany 中的数据的时候也是能一次性操作就一次性操作
my_band.members.remove(me, my_friend)要好于
my_band.members.remove(me)
my_band.members.remove(my_friend)