All posts by dotte

Code Review CheckList

在关于高效代码审查的博客中,我们推荐使用清单(checklist)。清单是代码审查中的伟大工具——他们确保审查在团队里持续高效。它们也是确保常见问题被识别、解决的方便途径。

软件工程协会的研究表明,程序员常犯的错误有 15-20 种。因此把这种错误增加到清单里,你就能确保在它们出现时指出来,帮助消除这种隐患。

为了让你开始建立清单,下面是经典的条目列表:

代码审查清单

总体

  • 代码能运行吗?代码实现了想要实现的功能了吗,逻辑是正确的吗,等等。
  • 所有代码都很容易理解吗?
  • 它遵循了你们都同意的代码规范吗?规范通常包括花括号的位置、变量和函数的命名、行长度、缩进、格式和注释。
  • 有多余的或重复的代码?
  • 代码尽可能模块化了?
  • 全局变量能被替换?
  • 有任何被注释掉的代码?
  • 循环结构里有固定的长度值和正确的结束条件?
  • 有代码可以被类库函数取代?
  • 日志和调试代码可以被移除?

安全

  • 所有数据输入都被校验(为了正确的类型、长度、格式和范围)和转码了?
  • 第三方工具集在哪里用到了,能够返回被捕捉到的错误吗?
  • 输出值经过校验和转码了?
  • 不合法的参数值得到处理了?

文档

  • 有文档吗,文档描述了代码意图吗?
  • 所有的函数都加注释了?
  • 任何不寻常的行为和边界处理都做说明了?
  • 就第三方类库的使用和功能写文档了?
  • 所有的数据结构和测试单元都做解释了?
  • 有不完整的代码?如果有,它应该被移除还是打上’TODO‘之类的适当标记?

测试

  • 代码可测试吗?比如,不要增加太多的或隐藏的依赖,不能够实例化对象,测试框架能够使用方法等。
  • 有测试吗,它们全面吗?比如,至少包含了你们认可的代码覆盖率吗?
  • 单元测试实际地测试了代码正在实现的目标功能了?
  • 数组检查’越界‘错误了?
  • 测试代码可被已有 API 的应用取代吗?

你还可以为清单增加一些语言相关的问题。

该清单故意没有包含所有的问题,你并不想一个长长的清单,以致于没人去使用。只需覆盖常见问题即可。

优化你的清单

把该清单做为一个起点,你应该针对具体用例进行优化。有个不错的办法,那就是让你的团队在代码审核时,花一点时间提出所产生的问题。有了这些数据,你就能够甄别出团队的常见错误,然后就被改造成常见清单。要确保删除那些不会发生的条目(你或许希望保持较少地发生,还有诸如安全相关的重要条目)。

集思广益,及时更新

做为通用法则,清单上的条目应该是具体的,如果有可能,你可以就此做一份二元决策【注1】。这有助于避免判断上的矛盾,与团队分享清单,并得到他们对于内容的认同也是不错的主意。确保定期审查清单,检查每一项以确保仍然相关。

有了优秀的清单武装,你就可以增加代码审核中的瑕疵数量。这有助于你提升代码质量、避免不稳定的代码审核质量。

为了更多地了解 Fog Creek 上的代码审核,请观看下面的视频:http://fast.wistia.net/embed/iframe/vigy79tuhq

from:http://www.techug.com/increase-defect-detection-with-our-code-review-checklist-example

 

做程序员你需要明白这九件事

(本文为 Medium 驻站作家 Manual Elbert 撰写,以下以第一人称叙述)

三年前我在巴塞隆纳的神经科学实验室工作,忙着把电极贴到人身上、教认知系统的课,而现在我靠着设计、编写软件维生。

当然从前我在研究科学时就写过很多软件。如果你想要看懂 40G 的脑部扫描资料,你必须捲起袖子写些语法来处理这些数据,而我一直都是个很好的程序编写者。但直到我辞去了我的学术工作(可能也告别了我的学术生涯)并开始在一个小而有野心的新创公司工作之后,我才真正知道什么是软件工程师,以及在这一行是怎么回事,并不是知道更多程序语法、资料库、演算法跟设计模型就好。

如果我在读研究所之前就知道这些事情就好了,将会让我的工作生涯变得更轻松。这是一些对年轻的我的忠告,是我过去三年所学到的经验,不得不说,有些实在不是那么美好。

  • 1. 不要高估天赋的价值

年轻的时候,如果你很聪明,你便可以遥遥领先其他人,如同小池塘里的一只大鱼。如果你那半调子的口才很好的话,那么聪明的功效还能加倍。事实上,聪明加上口才好能够让你不用念什么书就顺利度过高中跟大部份的大学课程。(不过你还是得念物理,你总不能说服一个等式转弯)。

恭喜你,你很幸运,同时却也十分不幸运。因为当你毫无阻碍的就冲过了求学的终点线,对待学习如反掌折枝。在这同时别人必须去学习勤劳、坚持、人际网路这些之后远远比学识更加重要的东西。

我们的社会太过重视聪明才智了。当我跟人们提到我以前专攻神经科学,大家都会说:「哇,你一定很聪明」。的确我不是笨蛋,但我知道很多人也许不如我这么聪明,却是远比我好的神经科学家。

聪明才智当然还是能帮你打开一扇门,但绝不会帮你做好工作。勤劳、严谨、可靠的人际关系都是不只软件工程师,而是你跨出研究所的美好泡泡之后要成为任何专家都必须拥有的特质。

  • 2. 要对你的专业感到骄傲、乐在其中

这句话可能有点老梗,但对年轻的你来说仍然很重要:无论你做的是什么,都以它为傲,没有任何事情应该只被视为达成目的的手段。

不论对象是人或是试管,你都必须严谨分析你的资料并使你的统计数据有效,然后再重来一遍,因为有时候你会发现你犯了哪些愚蠢错误。如果你无法乐在其中,仅把这些步骤视为出版论文或发行产品的必须过程,那么你永远无法真正擅长这件事。

如果你是写软件的,这代表你要规画你的特色、研究现有的开源代码、学习新的模型与程序语言、修復你的错误、重建程序码并且维护它。如果你没有想要精通你工作的野心,那无论你是科学家、工程是或是任何你在做的工作,可能都只是浪费时间。

你可以拥有一些「宠物计画」,一些小小的、有点蠢的、并不一定能满足你的即时目标、你只是因为「享受」在做这件事情。有趣的是,这在软件社群里似乎很常见:许多我们现今正在使用的产品大部分都来自某人的宠物计画,而几乎不是来自科学圈。我最喜欢的名言之一是来自奥地利动物学家 Konrad Lorenz:

「对一个研究科学家来说,每天早上吃早餐前都抛弃一个宠物假设是好的晨间运动。」

如果你觉得这听起来很蠢,也许你不该当一个研究科学家。

  • 3. 学习新工具/新技术

作为上一点的延伸:投注时间学习新工具。不只是拓展你的抽象知识,而是实际去学那些能帮助你完成事情的工具。这很快就能见效。

一个学习新工具的好方法是上述的「宠物计画」。每次你要建造新东西时,也用新的方法建造它。记住,宠物计画就是拿来失败用的,你投资不多、你学到一点东西;如果计画不成功,或是你失去兴趣、或是你发现实在有点太难了,你不会有损失,不会伤到自己。

如果你从事学术工作,以下是我强力推荐的好东西:

(1) Git 跟 Github

Git 帮助你管理你的工作,再也不用担心备份问题;而 Github 上有一堆很好用的程序码,你不需要自己重造轮子。噢,请记得跟你的同伴再确认一次你的程序码。绝对不要用程序码来分析那些只有你看过的资料。(我不敢相信我得告诉你这件事情啊,年轻的自己。你一直以来都是一个好的程序编写者,但我仍然做了那些可能会被忽视的错误。如果不是有再检查一遍,我不会发现因为程序错误,有百分之三十的科学结果可能是假的。)

(2) 一个绘图软件

我通常都用 Inkscape,但标准的 Adobe Illustrator 跟新的 Sketch其实也一样好。用这些绘图软件来先处理你的图表和计画,这通常都比你在 Matlab 或是 matplotlib 上写绘图指令来得容易。

(3) 学习如何有效的利用你的文字与代码编辑器

Sublime Text 是个比 VIM 或 Emacs 来得容易学会的编辑器。知道捷径能够帮你省下一堆时间。

(4) 学习如何说话

看看 TED 上的演讲并注意这些讲者如何在十五分钟内就抓住观众,同时说出那些吸引人的故事。你可以在镜子前面练习,你的肢体与声音都是工具。

(5) 知道基本的 Python、R、HTML 跟 Javascript

这些工具可以帮上不少忙。如果你对写程序并非一窍不通,那学个新的面向编程或资料库。玩玩计算机视觉、自然语法编写、网页撷取、音乐合成跟机器人!

你所能看见解决问题的方法,永远都会被你所使用的工具所限。学习新工具代表你用新的角度看问题。如果你是大学生,我强力建议你一周之间拨出一天来学习新工具。如果你开始做硕博士研究,那就拨两天出来。长期来看,你会省下很多时间,而人们会被你的效率所惊艷。如果你觉得这听起来太困难、你没有时间、其他压力太大,那就跟你的老朋友谈谈,看看到底什么才是值得你花时间去做的。

  • 4. 成为真正的局内人

正常来说,你的长官或 CEO 会做出对机构或公司最有利益的事情,毕竟那是他的职责。

当我们说到「公司的最大利益」,其实我们是说某些局内人的最大利益。真正的问题是,你的长官或 CEO 到底把谁当局内人?这些利益共享者的利益又有多重要?

如果你的老闆认为他自己是唯一的获利者(越出名越好、越快获利越好),你最好快点逃走,逃得越快越好,不然你会被当成牺牲品。那谁才有资格利益共享?你的投资者或贊助者?员工?学生?人类?重点是:快点找出来。如果你不被当成受益者之一,那就快走。无论你有多爱你的工作,那都只是一厢情愿、被滥用的关系。

  • 5. 学会展现成果

「Shipping it」变成科技界一个相当流行的词汇,意即把你的产品从仓库拿出来给客人。但除了字面上的意思,它其实还有一种精神层面的意涵:你的东西要到了客人手上才会有价值,而这应该是你一直以来的目标。

在学术范畴中,我写的大部分软件都只会在一个系统上执行一次。为了产品而写的程序则是完全不一样的东西,这会让五十万人使用,而当写程序成为我的专业时,我发现我并不擅长这件事。

但这同时也代表琢磨好几年,直到完美产品诞生是没有意义的。你只要做出一点成果,就把它送出去,写一份最简单的报告你就有可能被录取。晚点再担心更复杂的学问吧,先搞定基础,尽快发表它。Just ship it。

  • 6. 懂得 80/20 守则

80/20 守则基本上是说,达成你预期目标的 80% 需要花你整个企画 20% 的时间,而剩下的 80% 时间就是拿来搞定剩下的 20% 目标。这就像你从郊区开车进城市,你用两成的时间开了八成的距离,但只要你遇到塞车,最后的两成距离会花你超久的时间。

这重要在哪?因为人们总是低估计画所需的时间,科学家跟工程师尤其常这样。这部分要归因于经验:你知道得越多,你越能预测之后有什么会出错、以及有什么是人们一开始不会注意到的有趣东西。

如果你还没有这些经验,只要把你预期所需的时间乘以五倍,并且预想五倍时间过后你就能达到「快成功了」的阶段

  • 7. 你没出卖你的灵魂

我念博士全都是因为一些错误的原因,其中一个我现在称之为「学术之罪」。我相信如果我没有追求博士,我就是浪费了我的天份,我觉得我亏欠所以在求学过程中给我帮助的人:教授们、帮我出奖学金的人等等。但我并没有,他们也许投资了我的学术未来,也或许对他们的投资没有兑现、没制造出一个伟大科学家而感到失望,但那是他们的问题,不是我的问题。

这跟做工作是一样的道理。人们总是会投资你,但那常常是因为这对他们最有利,而不代表他们买走了你的灵魂。

  • 8. 脱离你的舒适圈

以下是我如何看待这个世界的:

1-nUYG9kYTLBMxde_YNAw6hw

如果身边一切看起来很熟悉,代表你能学的东西极少。但如果你现在处于非常惊慌的状态,你可能什么都没学到。

在舒适圈内,你熟知圈子里的每个人、那里是你的归属,你知道如何应付问题,太阳底下没有新鲜事。如果你想学些新知并成长,你必须离开你的舒适圈,那才是学习的开始、有趣的事情发生的地方。那是一个你无法对每件事立即反应过来的地方。

当然也有某些时刻你会被压垮,那就是惊恐圈,你在那里昏倒、你所能做的只有勉强维生,并期待某人快来救你。

最棒的地方就正在你的惊恐圈正前面,那里才有挑战、你会在那里学到最多、改变最多。想办法去到那里吧。

「忘记安全。在你所畏惧之处住下。摧毁你的名声。变得恶名昭彰。」-鲁米,伊斯兰神祕主义诗人

  • 9. 学会驯服你的躁动

舒适坐好、闭上眼睛并正常唿吸。专注在你吐出的空气,通过你的鼻腔抚过你的上唇,没别的,就专心做这件事。

你刚刚专心了多久?五分钟?恐怕不到。

一分钟?很好。

比二十秒更少?恭喜你,你是正常人。你的脑袋就像猴子一样,会抓住最近的树枝。在学术上我会换句话说 …… 说好听一点是「联想思考」。如果你想要有创意,联想思考是很好的事情,但它却是专注力的杀手。

好消息是,你能学会如何专注。外面有一卡车的「提升生产力的技巧」,但他们都只抓到皮毛,你不会想要一个分心自由写作的软件,你想要永远抚平你猴子般跳来跳去的思绪。

对我有效的跟对你有效的可能完全不同。对我来说,定期静坐冥想非常有效(同时有其他许多优点与副作用),但就算是冥想静坐也有很多种不同的形态与传统,而我不可能找到一个对大家来说都适用的。我所建议的,是让你的意识保持一定的型态,并且很认真的对待它。你认为静坐是浪费时间吗?你会去健身房健身,但你应该要两倍的时间在脑力运动上。

只有好好地集中精神,你才能一步一步完成所有的目标。

from:http://www.techug.com/9-things-i-learned-as-a-software-engineer

MySQL索引原理及慢查询优化

MySQL凭借着出色的性能、低廉的成本、丰富的资源,已经成为绝大多数互联网公司的首选关系型数据库。虽然性能出色,但所谓“好马配好鞍”,如何能够更好的使用它,已经成为开发工程师的必修课,我们经常会从职位描述上看到诸如“精通MySQL”、“SQL语句优化”、“了解数据库原理”等要求。我们知道一般的应用系统,读写比例在10:1左右,而且插入操作和一般的更新操作很少出现性能问题,遇到最多的,也是最容易出问题的,还是一些复杂的查询操作,所以查询语句的优化显然是重中之重。
本人从13年7月份起,一直在美团核心业务系统部做慢查询的优化工作,共计十余个系统,累计解决和积累了上百个慢查询案例。随着业务的复杂性提升,遇到的问题千奇百怪,五花八门,匪夷所思。本文旨在以开发工程师的角度来解释数据库索引的原理和如何优化慢查询。

一个慢查询引发的思考

select
   count(*) 
from
   task 
where
   status=2 
   and operator_id=20839 
   and operate_time>1371169729 
   and operate_time<1371174603 
   and type=2;

系统使用者反应有一个功能越来越慢,于是工程师找到了上面的SQL。
并且兴致冲冲的找到了我,“这个SQL需要优化,给我把每个字段都加上索引”
我很惊讶,问道“为什么需要每个字段都加上索引?”
“把查询的字段都加上索引会更快”工程师信心满满
“这种情况完全可以建一个联合索引,因为是最左前缀匹配,所以operate_time需要放到最后,而且还需要把其他相关的查询都拿来,需要做一个综合评估。”
“联合索引?最左前缀匹配?综合评估?”工程师不禁陷入了沉思。
多数情况下,我们知道索引能够提高查询效率,但应该如何建立索引?索引的顺序如何?许多人却只知道大概。其实理解这些概念并不难,而且索引的原理远没有想象的那么复杂。

MySQL索引原理

##索引目的
索引的目的在于提高查询效率,可以类比字典,如果要查“mysql”这个单词,我们肯定需要定位到m字母,然后从下往下找到y字母,再找到剩下的sql。如果没有索引,那么你可能需要把所有单词看一遍才能找到你想要的,如果我想找到m开头的单词呢?或者ze开头的单词呢?是不是觉得如果没有索引,这个事情根本无法完成?

##索引原理
除了词典,生活中随处可见索引的例子,如火车站的车次表、图书的目录等。它们的原理都是一样的,通过不断的缩小想要获得数据的范围来筛选出最终想要的结果,同时把随机的事件变成顺序的事件,也就是我们总是通过同一种查找方式来锁定数据。
数据库也是一样,但显然要复杂许多,因为不仅面临着等值查询,还有范围查询(>、<、between、in)、模糊查询(like)、并集查询(or)等等。数据库应该选择怎么样的方式来应对所有的问题呢?我们回想字典的例子,能不能把数据分成段,然后分段查询呢?最简单的如果1000条数据,1到100分成第一段,101到200分成第二段,201到300分成第三段……这样查第250条数据,只要找第三段就可以了,一下子去除了90%的无效数据。但如果是1千万的记录呢,分成几段比较好?稍有算法基础的同学会想到搜索树,其平均复杂度是lgN,具有不错的查询性能。但这里我们忽略了一个关键的问题,复杂度模型是基于每次相同的操作成本来考虑的,数据库实现比较复杂,数据保存在磁盘上,而为了提高性能,每次又可以把部分数据读入内存来计算,因为我们知道访问磁盘的成本大概是访问内存的十万倍左右,所以简单的搜索树难以满足复杂的应用场景。

###磁盘IO与预读
前面提到了访问磁盘,那么这里先简单介绍一下磁盘IO和预读,磁盘读取数据靠的是机械运动,每次读取数据花费的时间可以分为寻道时间、旋转延迟、传输时间三个部分,寻道时间指的是磁臂移动到指定磁道所需要的时间,主流磁盘一般在5ms以下;旋转延迟就是我们经常听说的磁盘转速,比如一个磁盘7200转,表示每分钟能转7200次,也就是说1秒钟能转120次,旋转延迟就是1/120/2 = 4.17ms;传输时间指的是从磁盘读出或将数据写入磁盘的时间,一般在零点几毫秒,相对于前两个时间可以忽略不计。那么访问一次磁盘的时间,即一次磁盘IO的时间约等于5+4.17 = 9ms左右,听起来还挺不错的,但要知道一台500 -MIPS的机器每秒可以执行5亿条指令,因为指令依靠的是电的性质,换句话说执行一次IO的时间可以执行40万条指令,数据库动辄十万百万乃至千万级数据,每次9毫秒的时间,显然是个灾难。下图是计算机硬件延迟的对比图,供大家参考:
various-system-software-hardware-latencies
考虑到磁盘IO是非常高昂的操作,计算机操作系统做了一些优化,当一次IO时,不光把当前磁盘地址的数据,而是把相邻的数据也都读取到内存缓冲区内,因为局部预读性原理告诉我们,当计算机访问一个地址的数据的时候,与其相邻的数据也会很快被访问到。每一次IO读取的数据我们称之为一页(page)。具体一页有多大数据跟操作系统有关,一般为4k或8k,也就是我们读取一页内的数据时候,实际上才发生了一次IO,这个理论对于索引的数据结构设计非常有帮助。

###索引的数据结构
前面讲了生活中索引的例子,索引的基本原理,数据库的复杂性,又讲了操作系统的相关知识,目的就是让大家了解,任何一种数据结构都不是凭空产生的,一定会有它的背景和使用场景,我们现在总结一下,我们需要这种数据结构能够做些什么,其实很简单,那就是:每次查找数据时把磁盘IO次数控制在一个很小的数量级,最好是常数数量级。那么我们就想到如果一个高度可控的多路搜索树是否能满足需求呢?就这样,b+树应运而生。

###详解b+树
b+树
如上图,是一颗b+树,关于b+树的定义可以参见B+树,这里只说一些重点,浅蓝色的块我们称之为一个磁盘块,可以看到每个磁盘块包含几个数据项(深蓝色所示)和指针(黄色所示),如磁盘块1包含数据项17和35,包含指针P1、P2、P3,P1表示小于17的磁盘块,P2表示在17和35之间的磁盘块,P3表示大于35的磁盘块。真实的数据存在于叶子节点即3、5、9、10、13、15、28、29、36、60、75、79、90、99。非叶子节点只不存储真实的数据,只存储指引搜索方向的数据项,如17、35并不真实存在于数据表中。

###b+树的查找过程
如图所示,如果要查找数据项29,那么首先会把磁盘块1由磁盘加载到内存,此时发生一次IO,在内存中用二分查找确定29在17和35之间,锁定磁盘块1的P2指针,内存时间因为非常短(相比磁盘的IO)可以忽略不计,通过磁盘块1的P2指针的磁盘地址把磁盘块3由磁盘加载到内存,发生第二次IO,29在26和30之间,锁定磁盘块3的P2指针,通过指针加载磁盘块8到内存,发生第三次IO,同时内存中做二分查找找到29,结束查询,总计三次IO。真实的情况是,3层的b+树可以表示上百万的数据,如果上百万的数据查找只需要三次IO,性能提高将是巨大的,如果没有索引,每个数据项都要发生一次IO,那么总共需要百万次的IO,显然成本非常非常高。

###b+树性质
1.通过上面的分析,我们知道IO次数取决于b+数的高度h,假设当前数据表的数据为N,每个磁盘块的数据项的数量是m,则有h=㏒(m+1)N,当数据量N一定的情况下,m越大,h越小;而m = 磁盘块的大小 / 数据项的大小,磁盘块的大小也就是一个数据页的大小,是固定的,如果数据项占的空间越小,数据项的数量越多,树的高度越低。这就是为什么每个数据项,即索引字段要尽量的小,比如int占4字节,要比bigint8字节少一半。这也是为什么b+树要求把真实的数据放到叶子节点而不是内层节点,一旦放到内层节点,磁盘块的数据项会大幅度下降,导致树增高。当数据项等于1时将会退化成线性表。
2.当b+树的数据项是复合的数据结构,比如(name,age,sex)的时候,b+数是按照从左到右的顺序来建立搜索树的,比如当(张三,20,F)这样的数据来检索的时候,b+树会优先比较name来确定下一步的所搜方向,如果name相同再依次比较age和sex,最后得到检索的数据;但当(20,F)这样的没有name的数据来的时候,b+树就不知道下一步该查哪个节点,因为建立搜索树的时候name就是第一个比较因子,必须要先根据name来搜索才能知道下一步去哪里查询。比如当(张三,F)这样的数据来检索时,b+树可以用name来指定搜索方向,但下一个字段age的缺失,所以只能把名字等于张三的数据都找到,然后再匹配性别是F的数据了, 这个是非常重要的性质,即索引的最左匹配特性。

慢查询优化

关于MySQL索引原理是比较枯燥的东西,大家只需要有一个感性的认识,并不需要理解得非常透彻和深入。我们回头来看看一开始我们说的慢查询,了解完索引原理之后,大家是不是有什么想法呢?先总结一下索引的几大基本原则

建索引的几大原则

1.最左前缀匹配原则,非常重要的原则,mysql会一直向右匹配直到遇到范围查询(>、<、between、like)就停止匹配,比如a = 1 and b = 2 and c > 3 and d = 4 如果建立(a,b,c,d)顺序的索引,d是用不到索引的,如果建立(a,b,d,c)的索引则都可以用到,a,b,d的顺序可以任意调整。
2.=和in可以乱序,比如a = 1 and b = 2 and c = 3 建立(a,b,c)索引可以任意顺序,mysql的查询优化器会帮你优化成索引可以识别的形式
3.尽量选择区分度高的列作为索引,区分度的公式是count(distinct col)/count(*),表示字段不重复的比例,比例越大我们扫描的记录数越少,唯一键的区分度是1,而一些状态、性别字段可能在大数据面前区分度就是0,那可能有人会问,这个比例有什么经验值吗?使用场景不同,这个值也很难确定,一般需要join的字段我们都要求是0.1以上,即平均1条扫描10条记录
4.索引列不能参与计算,保持列“干净”,比如from_unixtime(create_time) = ’2014-05-29’就不能使用到索引,原因很简单,b+树中存的都是数据表中的字段值,但进行检索时,需要把所有元素都应用函数才能比较,显然成本太大。所以语句应该写成create_time = unix_timestamp(’2014-05-29’);
5.尽量的扩展索引,不要新建索引。比如表中已经有a的索引,现在要加(a,b)的索引,那么只需要修改原来的索引即可

回到开始的慢查询

根据最左匹配原则,最开始的sql语句的索引应该是status、operator_id、type、operate_time的联合索引;其中status、operator_id、type的顺序可以颠倒,所以我才会说,把这个表的所有相关查询都找到,会综合分析;
比如还有如下查询

select * from task where status = 0 and type = 12 limit 10;
select count(*) from task where status = 0 ;

那么索引建立成(status,type,operator_id,operate_time)就是非常正确的,因为可以覆盖到所有情况。这个就是利用了索引的最左匹配的原则

查询优化神器 – explain命令

关于explain命令相信大家并不陌生,具体用法和字段含义可以参考官网explain-output,这里需要强调rows是核心指标,绝大部分rows小的语句执行一定很快(有例外,下面会讲到)。所以优化语句基本上都是在优化rows。

慢查询优化基本步骤

0.先运行看看是否真的很慢,注意设置SQL_NO_CACHE
1.where条件单表查,锁定最小返回记录表。这句话的意思是把查询语句的where都应用到表中返回的记录数最小的表开始查起,单表每个字段分别查询,看哪个字段的区分度最高
2.explain查看执行计划,是否与1预期一致(从锁定记录较少的表开始查询)
3.order by limit 形式的sql语句让排序的表优先查
4.了解业务方使用场景
5.加索引时参照建索引的几大原则
6.观察结果,不符合预期继续从0分析

几个慢查询案例

下面几个例子详细解释了如何分析和优化慢查询

复杂语句写法

很多情况下,我们写SQL只是为了实现功能,这只是第一步,不同的语句书写方式对于效率往往有本质的差别,这要求我们对mysql的执行计划和索引原则有非常清楚的认识,请看下面的语句

select
   distinct cert.emp_id 
from
   cm_log cl 
inner join
   (
      select
         emp.id as emp_id,
         emp_cert.id as cert_id 
      from
         employee emp 
      left join
         emp_certificate emp_cert 
            on emp.id = emp_cert.emp_id 
      where
         emp.is_deleted=0
   ) cert 
      on (
         cl.ref_table='Employee' 
         and cl.ref_oid= cert.emp_id
      ) 
      or (
         cl.ref_table='EmpCertificate' 
         and cl.ref_oid= cert.cert_id
      ) 
where
   cl.last_upd_date >='2013-11-07 15:03:00' 
   and cl.last_upd_date<='2013-11-08 16:00:00';

0.先运行一下,53条记录 1.87秒,又没有用聚合语句,比较慢

53 rows in set (1.87 sec)

1.explain

+----+-------------+------------+-------+---------------------------------+-----------------------+---------+-------------------+-------+--------------------------------+
| id | select_type | table      | type  | possible_keys                   | key                   | key_len | ref               | rows  | Extra                          |
+----+-------------+------------+-------+---------------------------------+-----------------------+---------+-------------------+-------+--------------------------------+
|  1 | PRIMARY     | cl         | range | cm_log_cls_id,idx_last_upd_date | idx_last_upd_date     | 8       | NULL              |   379 | Using where; Using temporary   |
|  1 | PRIMARY     | <derived2> | ALL   | NULL                            | NULL                  | NULL    | NULL              | 63727 | Using where; Using join buffer |
|  2 | DERIVED     | emp        | ALL   | NULL                            | NULL                  | NULL    | NULL              | 13317 | Using where                    |
|  2 | DERIVED     | emp_cert   | ref   | emp_certificate_empid           | emp_certificate_empid | 4       | meituanorg.emp.id |     1 | Using index                    |
+----+-------------+------------+-------+---------------------------------+-----------------------+---------+-------------------+-------+--------------------------------+

简述一下执行计划,首先mysql根据idx_last_upd_date索引扫描cm_log表获得379条记录;然后查表扫描了63727条记录,分为两部分,derived表示构造表,也就是不存在的表,可以简单理解成是一个语句形成的结果集,后面的数字表示语句的ID。derived2表示的是ID = 2的查询构造了虚拟表,并且返回了63727条记录。我们再来看看ID = 2的语句究竟做了写什么返回了这么大量的数据,首先全表扫描employee表13317条记录,然后根据索引emp_certificate_empid关联emp_certificate表,rows = 1表示,每个关联都只锁定了一条记录,效率比较高。获得后,再和cm_log的379条记录根据规则关联。从执行过程上可以看出返回了太多的数据,返回的数据绝大部分cm_log都用不到,因为cm_log只锁定了379条记录。
如何优化呢?可以看到我们在运行完后还是要和cm_log做join,那么我们能不能之前和cm_log做join呢?仔细分析语句不难发现,其基本思想是如果cm_log的ref_table是EmpCertificate就关联emp_certificate表,如果ref_table是Employee就关联employee表,我们完全可以拆成两部分,并用union连接起来,注意这里用union,而不用union all是因为原语句有“distinct”来得到唯一的记录,而union恰好具备了这种功能。如果原语句中没有distinct不需要去重,我们就可以直接使用union all了,因为使用union需要去重的动作,会影响SQL性能。
优化过的语句如下

select
   emp.id 
from
   cm_log cl 
inner join
   employee emp 
      on cl.ref_table = 'Employee' 
      and cl.ref_oid = emp.id  
where
   cl.last_upd_date >='2013-11-07 15:03:00' 
   and cl.last_upd_date<='2013-11-08 16:00:00' 
   and emp.is_deleted = 0  
union
select
   emp.id 
from
   cm_log cl 
inner join
   emp_certificate ec 
      on cl.ref_table = 'EmpCertificate' 
      and cl.ref_oid = ec.id  
inner join
   employee emp 
      on emp.id = ec.emp_id  
where
   cl.last_upd_date >='2013-11-07 15:03:00' 
   and cl.last_upd_date<='2013-11-08 16:00:00' 
   and emp.is_deleted = 0

4.不需要了解业务场景,只需要改造的语句和改造之前的语句保持结果一致

5.现有索引可以满足,不需要建索引

6.用改造后的语句实验一下,只需要10ms 降低了近200倍!

+----+--------------+------------+--------+---------------------------------+-------------------+---------+-----------------------+------+-------------+
| id | select_type  | table      | type   | possible_keys                   | key               | key_len | ref                   | rows | Extra       |
+----+--------------+------------+--------+---------------------------------+-------------------+---------+-----------------------+------+-------------+
|  1 | PRIMARY      | cl         | range  | cm_log_cls_id,idx_last_upd_date | idx_last_upd_date | 8       | NULL                  |  379 | Using where |
|  1 | PRIMARY      | emp        | eq_ref | PRIMARY                         | PRIMARY           | 4       | meituanorg.cl.ref_oid |    1 | Using where |
|  2 | UNION        | cl         | range  | cm_log_cls_id,idx_last_upd_date | idx_last_upd_date | 8       | NULL                  |  379 | Using where |
|  2 | UNION        | ec         | eq_ref | PRIMARY,emp_certificate_empid   | PRIMARY           | 4       | meituanorg.cl.ref_oid |    1 |             |
|  2 | UNION        | emp        | eq_ref | PRIMARY                         | PRIMARY           | 4       | meituanorg.ec.emp_id  |    1 | Using where |
| NULL | UNION RESULT | <union1,2> | ALL    | NULL                            | NULL              | NULL    | NULL                  | NULL |             |
+----+--------------+------------+--------+---------------------------------+-------------------+---------+-----------------------+------+-------------+
53 rows in set (0.01 sec)

明确应用场景

举这个例子的目的在于颠覆我们对列的区分度的认知,一般上我们认为区分度越高的列,越容易锁定更少的记录,但在一些特殊的情况下,这种理论是有局限性的

select
   * 
from
   stage_poi sp 
where
   sp.accurate_result=1 
   and (
      sp.sync_status=0 
      or sp.sync_status=2 
      or sp.sync_status=4
   );

0.先看看运行多长时间,951条数据6.22秒,真的很慢

951 rows in set (6.22 sec)

1.先explain,rows达到了361万,type = ALL表明是全表扫描

+----+-------------+-------+------+---------------+------+---------+------+---------+-------------+
| id | select_type | table | type | possible_keys | key  | key_len | ref  | rows    | Extra       |
+----+-------------+-------+------+---------------+------+---------+------+---------+-------------+
|  1 | SIMPLE      | sp    | ALL  | NULL          | NULL | NULL    | NULL | 3613155 | Using where |
+----+-------------+-------+------+---------------+------+---------+------+---------+-------------+

2.所有字段都应用查询返回记录数,因为是单表查询 0已经做过了951条

3.让explain的rows 尽量逼近951

看一下accurate_result = 1的记录数

select count(*),accurate_result from stage_poi  group by accurate_result;
+----------+-----------------+
| count(*) | accurate_result |
+----------+-----------------+
|     1023 |              -1 |
|  2114655 |               0 |
|   972815 |               1 |
+----------+-----------------+

我们看到accurate_result这个字段的区分度非常低,整个表只有-1,0,1三个值,加上索引也无法锁定特别少量的数据

再看一下sync_status字段的情况

select count(*),sync_status from stage_poi  group by sync_status;
+----------+-------------+
| count(*) | sync_status |
+----------+-------------+
|     3080 |           0 |
|  3085413 |           3 |
+----------+-------------+

同样的区分度也很低,根据理论,也不适合建立索引

问题分析到这,好像得出了这个表无法优化的结论,两个列的区分度都很低,即便加上索引也只能适应这种情况,很难做普遍性的优化,比如当sync_status 0、3分布的很平均,那么锁定记录也是百万级别的

4.找业务方去沟通,看看使用场景。业务方是这么来使用这个SQL语句的,每隔五分钟会扫描符合条件的数据,处理完成后把sync_status这个字段变成1,五分钟符合条件的记录数并不会太多,1000个左右。了解了业务方的使用场景后,优化这个SQL就变得简单了,因为业务方保证了数据的不平衡,如果加上索引可以过滤掉绝大部分不需要的数据

5.根据建立索引规则,使用如下语句建立索引

alter table stage_poi add index idx_acc_status(accurate_result,sync_status);

6.观察预期结果,发现只需要200ms,快了30多倍。

952 rows in set (0.20 sec)

我们再来回顾一下分析问题的过程,单表查询相对来说比较好优化,大部分时候只需要把where条件里面的字段依照规则加上索引就好,如果只是这种“无脑”优化的话,显然一些区分度非常低的列,不应该加索引的列也会被加上索引,这样会对插入、更新性能造成严重的影响,同时也有可能影响其它的查询语句。所以我们第4步调差SQL的使用场景非常关键,我们只有知道这个业务场景,才能更好地辅助我们更好的分析和优化查询语句。

无法优化的语句

select
   c.id,
   c.name,
   c.position,
   c.sex,
   c.phone,
   c.office_phone,
   c.feature_info,
   c.birthday,
   c.creator_id,
   c.is_keyperson,
   c.giveup_reason,
   c.status,
   c.data_source,
   from_unixtime(c.created_time) as created_time,
   from_unixtime(c.last_modified) as last_modified,
   c.last_modified_user_id  
from
   contact c  
inner join
   contact_branch cb 
      on  c.id = cb.contact_id  
inner join
   branch_user bu 
      on  cb.branch_id = bu.branch_id 
      and bu.status in (
         1,
      2)  
   inner join
      org_emp_info oei 
         on  oei.data_id = bu.user_id 
         and oei.node_left >= 2875 
         and oei.node_right <= 10802 
         and oei.org_category = - 1  
   order by
      c.created_time desc  limit 0 ,
      10;

还是几个步骤
0.先看语句运行多长时间,10条记录用了13秒,已经不可忍受

10 rows in set (13.06 sec)

1.explain

+----+-------------+-------+--------+-------------------------------------+-------------------------+---------+--------------------------+------+----------------------------------------------+
| id | select_type | table | type   | possible_keys                       | key                     | key_len | ref                      | rows | Extra                                        |
+----+-------------+-------+--------+-------------------------------------+-------------------------+---------+--------------------------+------+----------------------------------------------+
|  1 | SIMPLE      | oei   | ref    | idx_category_left_right,idx_data_id | idx_category_left_right | 5       | const                    | 8849 | Using where; Using temporary; Using filesort |
|  1 | SIMPLE      | bu    | ref    | PRIMARY,idx_userid_status           | idx_userid_status       | 4       | meituancrm.oei.data_id   |   76 | Using where; Using index                     |
|  1 | SIMPLE      | cb    | ref    | idx_branch_id,idx_contact_branch_id | idx_branch_id           | 4       | meituancrm.bu.branch_id  |    1 |                                              |
|  1 | SIMPLE      | c     | eq_ref | PRIMARY                             | PRIMARY                 | 108     | meituancrm.cb.contact_id |    1 |                                              |
+----+-------------+-------+--------+-------------------------------------+-------------------------+---------+--------------------------+------+----------------------------------------------+

从执行计划上看,mysql先查org_emp_info表扫描8849记录,再用索引idx_userid_status关联branch_user表,再用索引idx_branch_id关联contact_branch表,最后主键关联contact表。
rows返回的都非常少,看不到有什么异常情况。我们在看一下语句,发现后面有order by + limit组合,会不会是排序量太大搞的?于是我们简化SQL,去掉后面的order by 和 limit,看看到底用了多少记录来排序

select
  count(*)
from
   contact c  
inner join
   contact_branch cb 
      on  c.id = cb.contact_id  
inner join
   branch_user bu 
      on  cb.branch_id = bu.branch_id 
      and bu.status in (
         1,
      2)  
   inner join
      org_emp_info oei 
         on  oei.data_id = bu.user_id 
         and oei.node_left >= 2875 
         and oei.node_right <= 10802 
         and oei.org_category = - 1  
+----------+
| count(*) |
+----------+
|   778878 |
+----------+
1 row in set (5.19 sec)

发现排序之前居然锁定了778878条记录,如果针对70万的结果集排序,将是灾难性的,怪不得这么慢,那我们能不能换个思路,先根据contact的created_time排序,再来join会不会比较快呢?
于是改造成下面的语句,也可以用straight_join来优化
select
c.id,
c.name,
c.position,
c.sex,
c.phone,
c.office_phone,
c.feature_info,
c.birthday,
c.creator_id,
c.is_keyperson,
c.giveup_reason,
c.status,
c.data_source,
from_unixtime(c.created_time) as created_time,
from_unixtime(c.last_modified) as last_modified,
c.last_modified_user_id
from
contact c
where
exists (
select
1
from
contact_branch cb
inner join
branch_user bu
on cb.branch_id = bu.branch_id
and bu.status in (
1,
2)
inner join
org_emp_info oei
on oei.data_id = bu.user_id
and oei.node_left >= 2875
and oei.node_right <= 10802
and oei.org_category = – 1
where
c.id = cb.contact_id
)
order by
c.created_time desc limit 0 ,
10;

验证一下效果 预计在1ms内,提升了13000多倍!
```sql
10 rows in set (0.00 sec)

本以为至此大工告成,但我们在前面的分析中漏了一个细节,先排序再join和先join再排序理论上开销是一样的,为何提升这么多是因为有一个limit!大致执行过程是:mysql先按索引排序得到前10条记录,然后再去join过滤,当发现不够10条的时候,再次去10条,再次join,这显然在内层join过滤的数据非常多的时候,将是灾难的,极端情况,内层一条数据都找不到,mysql还傻乎乎的每次取10条,几乎遍历了这个数据表!
用不同参数的SQL试验下

select
   sql_no_cache   c.id,
   c.name,
   c.position,
   c.sex,
   c.phone,
   c.office_phone,
   c.feature_info,
   c.birthday,
   c.creator_id,
   c.is_keyperson,
   c.giveup_reason,
   c.status,
   c.data_source,
   from_unixtime(c.created_time) as created_time,
   from_unixtime(c.last_modified) as last_modified,
   c.last_modified_user_id    
from
   contact c   
where
   exists (
      select
         1        
      from
         contact_branch cb         
      inner join
         branch_user bu                     
            on  cb.branch_id = bu.branch_id                     
            and bu.status in (
               1,
            2)                
         inner join
            org_emp_info oei                           
               on  oei.data_id = bu.user_id                           
               and oei.node_left >= 2875                           
               and oei.node_right <= 2875                           
               and oei.org_category = - 1                
         where
            c.id = cb.contact_id           
      )        
   order by
      c.created_time desc  limit 0 ,
      10;
Empty set (2 min 18.99 sec)

2 min 18.99 sec!比之前的情况还糟糕很多。由于mysql的nested loop机制,遇到这种情况,基本是无法优化的。这条语句最终也只能交给应用系统去优化自己的逻辑了。
通过这个例子我们可以看到,并不是所有语句都能优化,而往往我们优化时,由于SQL用例回归时落掉一些极端情况,会造成比原来还严重的后果。所以,第一:不要指望所有语句都能通过SQL优化,第二:不要过于自信,只针对具体case来优化,而忽略了更复杂的情况。

慢查询的案例就分析到这儿,以上只是一些比较典型的案例。我们在优化过程中遇到过超过1000行,涉及到16个表join的“垃圾SQL”,也遇到过线上线下数据库差异导致应用直接被慢查询拖死,也遇到过varchar等值比较没有写单引号,还遇到过笛卡尔积查询直接把从库搞死。再多的案例其实也只是一些经验的积累,如果我们熟悉查询优化器、索引的内部原理,那么分析这些案例就变得特别简单了。

写在后面的话

本文以一个慢查询案例引入了MySQL索引原理、优化慢查询的一些方法论;并针对遇到的典型案例做了详细的分析。其实做了这么长时间的语句优化后才发现,任何数据库层面的优化都抵不上应用系统的优化,同样是MySQL,可以用来支撑Google/FaceBook/Taobao应用,但可能连你的个人网站都撑不住。套用最近比较流行的话:“查询容易,优化不易,且写且珍惜!”

参考

参考文献如下:
1.《高性能MySQL》
2.《数据结构与算法分析》

from:http://tech.meituan.com/mysql-index.html

ThoughtWorks读书雷达(2016)

由来

在2013年4月份,ThoughtWorks中国的员工张逸和刘龙军根据自己在ThoughtWorks的工作和学习经验,结合自己的阅读经历,以及参考诸多其他同事的建议,制作了第一期读书雷达(为什么是雷达,请参考ThoughtWorks的技术雷达,以及如何打造你自己的技术雷达)。伴随读书雷达的,还有一份精致的雷达图,以及一份张凯峰根据雷达整理而成的豆列

而三年后的现在,我们很高兴能对这份读书雷达做一次更新,这是更新的读书雷达图,以及对应的豆列。(点击这里下载pdf版本)

tw-reading-radar-2016-2

 

贡献者:禚娴静,王健,姚琪琳,于晓强,韩锴,张凯峰

ThoughtWorks作为一家学习型组织,颇为看重每一位员工的学习能力。事实上,大多数ThoughtWorker的骨子里,都溢满了读书的基因。与书相伴,与书为伍,既是一种乐趣,又是一种习惯。当习惯成为自然时,书籍就成为生活和工作不可或缺的一部分了。如果说人文历史哲学等书籍是一碗心灵鸡汤,技术书籍大抵算得上是一味营养素,读之可以直接带来养分;可若是不了解自己究竟缺了哪一种营养,乱吃乱补,结果就可能适得其反了。

所以,这次时隔三年后对读书雷达的又一次更新,完全是出于同样的目的,不仅仅为我们自己和同事,为社区,呈现这样一份书单,更是对过往三年的知识的一次沉淀,向过去这段时间伴随我们成长,帮助提升技能的知识的一次致敬。

更新

象限

首先是分类,也就是我们所说的象限。在上一期的读书雷达中,你会发现有这样四个象限,用来尝试把不同的书籍归纳到不同的分类下面:

  • 编程实践
  • 架构与设计
  • 方法学
  • 思想与领导力

而在讨论新一期的读书雷达过程中,以及选择合适的推荐书目时,我们发现旧的四个象限已经很难再覆盖新的选择,所以我们尝试从新的维度去尽可能地覆盖想要推荐的书目。主要是从个人和组织两个视角,从微观和宏观两个层面,对涉及到的书籍进行推介。这四个新的象限分别是:

  • 编程与实践
  • 提升与修炼
  • 流程与交付
  • 思想与领导力

等级

而每个象限内部皆分为三个等级,分别为基础、进阶和高级。在雷达图中,读者可以根据该书在图中距离圆心的远近,判断它的难度级别。我们还使用了不同的图示来表达对每本书的倾向性意见,其中,橙色的三角形图示代表“强烈推荐”,蓝色的圆形图示代表“推荐”。我们希望这类书籍对于个人而言,可以根据自己目前的水平,选择适合自己的书籍。在这个层次上,强烈推荐可能就意味着必读。

我们尽可能把合适的书选择出来,放在自认为合适的象限,并给予某个等级。但这并不意味着这是这些书唯一的选择和定位。相反,它们的位置只是表明我们作为一个群体对它们的某种喜好和定位,更重要的是,希望会有人开始认识它们,重视它们,并把它们作为自己职业生涯成长中必不可少的朋友。

推荐语

挑选书的过程是很艰难的,我们在读书雷达的头脑风暴中,面对如此玲琅满目的珍宝,不由自主,爱不释手,对最终进入雷达的书目喜爱有加,而对没进入雷达的好书更是耿耿于怀。只能说我们尽了最大的可能,把最合适的书罗列进来。但其实还是按照一定的标准在设立这样一个雷达书单,不然简单的清单也会失去它本来的意义:

  1. 尽可能选择近两年出现的新书,尤其是没有在前一期雷达中被提到的书目。
  2. 针对对软件构建有持续热情的读者,他们有想法有意愿,但需要阅读和知识上的方向指导。
  3. 书单有浓烈的ThoughtWorks风格和意味,读者进而对软件,对如何成为成熟的软件咨询师,甚至可能对ThoughtWorks产生兴趣。
  4. 综合大而全的书单不是我们的重点,重点在于从各个维度来推荐最合适的书目,即使是很小众的书目。

跟之前一期不同的是,这次我们针对新引入的书目会做几句话的点评,对这本书为什么会出现在这期雷达,为什么会出现在那个位置,给出几句推荐语,希望大家喜欢。

读书雷达

编程与实践

基础篇

进阶篇

  • 实现模式
  • 领域特定语言
  • Building Microservices

    微服务是支持可演化性的一些一起协同工作的小而自治的服务。许多组织发现这种细粒度的架构让系统更具弹性,扩展,也能增加团队的自治。但是,大量的服务会导致很多令人头疼的问题必须处理。这本书作为一个一站式商店包含微服务涉及的各种主题,并且通过在ThoughtWorks,Amazon,Netflix和其他公司的具体实践,帮助大家了解微服务。

高级篇

提升与修炼

基础篇

  • 程序员思维修炼
  • 金字塔原理
  • 暗时间

    为什么我每天都看书学习进步却并不明显?为什么有些人玩得时间不比我少学的时间不比我多,但却越来越牛?也许刘未鹏会给你答案。

  • 黑客:计算机革命的英雄

    每门专业都有其灵魂,或者说启蒙思想。黑客精神伦理及其独特的价值观在很多方面都深刻地影响了今天软件业的形态。这本书对“黑客”的起源及发展做了详尽的阐释。对于一位以计算机,尤其是软件为职业的人来说,这本书将带你“寻根访祖”,探寻我们日常工作背后的哲思。

进阶篇

  • 系统思考
  • 咨询的奥秘
  • The Trusted Advisor

    这本书初看有点儿像中文版的“厚黑学”,但是它内容并不是教读者取得个人功利的最大化,而是如何与他人合作,达到“win-win”。它的内容虽然涉及作为顾问如何有效地为客户提供价值,不过书中的建议操作性很强,完全可以应用在更广泛的范畴——我们每天与他人的交流很多都是向别人提建议或者接受别人建议的过程。最初我担心这本书的内容不适合“国情”,但后来的经历告诉我,在沟通与协作上,全人类都面临相同的挑战。

  • Unix编程艺术

    UNIX作为一款软件,绝对是人类的工程史上的奇迹,今天最重要的系统几乎全部运行在UNIX或其变体之上。它诞生于软件工程方法论的“创世纪”。得益于数位天才的努力,UNIX将他们的智慧全部包容进来,比如我们耳熟能详的KISS,YAGNI原则。不过这些智慧大多以源代码的形式保留在磁盘上了。所幸Eric Raymond的妙笔让这些睿智跃然纸上,触手可得,也让后人可以不断地从中汲取智慧和精神动力。

高级篇

  • 分析模式
  • 实现领域驱动设计

    本书适合于那些已经具备面向对象编程基础并想进一步提升的开发人员,它告诉我们:好的软件不只是用好设计模式这么简单,而是要能够准确地表达业务意图,达到“代码本身即是设计”。

流程与交付

基础篇

进阶篇

  • 持续交付
  • Google软件测试之道
  • 敏捷软件测试
  • 精益软件度量

    软件度量是当今软件开发行业的热点话题,但同时也是推广实施过程中的难题。一方面软件企业管理存在度量的迫切需求,另一方面,企业在推行软件度量的实践上问题颇多、效果不佳。人们迫切需要破解度量难题,找到切实可行的软件度量的实践方法。而这本书从精益理念的角度,尝试重新梳理在中等规模到大规模软件开发中度量体系设计和实施的思路。

高级篇

思想与领导力

基础篇

  • 门后的秘密
  • 部落的力量

    如果你幸运的话,在你的一生中,会有一些经历让你难忘,每当你遇到困难的时候,你都会不自觉的想起那个时候是什么样的,从中寻找答案,你在努力让自己身边的环境回到“当年”的那个状态,虽然已经物是人非。如果你不能,你会痛苦、无力、抱怨世事不如以前了。

    然而“当年”那个状态到底是什么状态?所谓伟大的团队到底有什么样的特点?他们中的每一个人心里想的是什么,他们之间又是如何交互的?所谓团队建设究竟应该怎么做?你又如何领导你的团队到达这样的状态?

    作为一个软件工程师,你一定会多多少少的遇到这些困惑,我强烈建议你读读这本书,因为,毕竟,软件是一个协作的游戏。

进阶篇

  • 精益思想
  • 第五项修炼
  • 影响力

    为什么有些人极具说服力?同样的观点为什么不同人说出来的大家的反应是不一样的甚至截然相反的?这就是影响力这个武器的威力所在。影响力的打造和经营,无论对于个人还是企业,都可以让我们做到事半功倍,节省更多的成本,创造更多的价值

高级篇

  • Agile IT Organization Design
  • 管理3.0:培养和提升敏捷领导力
  • 精益企业

    “精益”的概念源自于二十世纪末期美国人对丰田制造方法的研究,总结出的可以同是提高质量并降低成本的秘密。“精益创业”将这种方法用于初创企业,并随着很多硅谷的明星公司以及国内很多创业奇迹故事而流行开来。于是很多人开始认为只有小型的初创企业才能谈及“精益”。本书的三位作者以他们自身丰富的经历告诉我们,同样的原则、方法、实践也适用于“恐龙”般的大型企业,从而保持它们与“初创公司”的竞争力。

from:http://insights.thoughtworkers.org/reading-radar-2016/