你的位置:学习网 - 视频教程 >> 电脑 >> 编程开发 >> Java >> 详细内容

《Java性能优化权威指南》




收藏本资料

本资料所属分类:

电脑 编程开发 Java

更新时间:2018年3月02日

如不能下载,请查看怎样下载


下面是学习资料下载列表,您可以点击这些文 件名进行下载,如果不能下载,请查看下载帮助

java性能优化权威指南(带书签)[www.minxue.net].pdf
157.61 MB
内容介绍 本书由曾任职于Oracle/Sun的性能优化专家编写,系统而详细地讲解了性能优化的各个方面,帮助你学习Java虚拟机的基本原理、掌握一些监控Java程序性能的工具,从而快速找到程序中的性能瓶颈,并有效改善程序的运行性能。

 



内容介绍  · · · · · ·

Java性能优化圣经!Java之父重磅推荐!

本书由曾任职于Oracle/Sun的性能优化专家编写,系统而详细地讲解了性能优化的各个方面,帮助你学习Java虚拟机的基本原理、掌握一些监控Java程序性能的工具,从而快速找到程序中的性能瓶颈,并有效改善程序的运行性能。

Java性能优化的任何问题,都可以从本书中找到答案!





作者简介  · · · · · ·

Charlie Hunt现任Salesforce公司的性能工程架构师。曾任Oracle公司首席JVM性能工程师,负责HotSpot Java虚拟机和Java SE类库性能的改进。Charlie拥有美国伊利诺伊理工大学的计算机科学硕士学位、爱荷华州立大学的计算机科学学士学位。

Binu John是世界上最大的社交网站创建平台Ning.com的高级性能工程师。他目前的职责是着力改善Ning平台的性能和扩展性,以支持每月数百万PV的访问量。Binu拥有美国爱荷华大学生物医学工程和计算机科学硕士学位。




目录  · · · · · ·
第1章 策略、方法和方法论  1
1.1  性能问题的现状  1
1.2  性能分析的两种方法:自顶向下和自底向上  4
1.2.1  自顶向下  4
1.2.2  自底向上  5
1.3  选择正确的平台并评估系统性能  5
1.3.1  选择正确的CPU架构  6
1.3.2  评估系统性能  7
1.4  参考资料  7
第2章 操作系统性能监控  8
2.1  定义  8
2.2  CPU使用率  9
2.2.1  监控CPU使用率:Windows  9
2.2.2  监控CPU使用率:Windows typeperf  12
2.2.3  监控CPU使用率:Linux  13
2.2.4  监控CPU使用率:Solaris  14
2.2.5  命令行监控CPU使用率:Linux和Solaris  16
2.3  CPU调度程序运行队列  19
2.3.1  监控CPU调度程序运行队列:Windows  19
2.3.2  监控CPU调度程序运行队列:Solaris  21
2.3.3  监控CPU调度程序运行队列:Linux  21
2.4  内存使用率  22
2.4.1  监控内存利用率:Windows  22
2.4.2  监控内存使用率:Solaris  23
2.4.3  监控内存使用率:Linux  24
2.4.4  监控锁竞争:Solaris  25
2.4.5  监控锁竞争:Linux  26
2.4.6  监控锁竞争:Windows  27
2.4.7  隔离竞争锁  27
2.4.8  监控抢占式上下文切换  27
2.4.9  监控线程迁移  28
2.5  网络I/O使用率  28
2.5.1  监控网络I/O使用率:Solaris  29
2.5.2  监控网络I/O使用率:Linux  30
2.5.3  监控网络I/O使用率:Windows  30
2.5.4  应用性能改进的考虑  31
2.6  磁盘I/O使用率  31
2.7  其他命令行工具  34
2.8  监控CPU使用率:SPARC T系列系统  35
2.9  参考资料  36
第3章 JVM概览  38
3.1  HotSpot VM的基本架构  38
3.2  HotSpot VM运行时  40
3.2.1  命令行选项  40
3.2.2  VM生命周期  41
3.2.3  VM类加载  44
3.2.4  字节码验证  46
3.2.5  类数据共享  47
3.2.6  解释器  48
3.2.7  异常处理  49
3.2.8  同步  50
3.2.9  线程管理  51
3.2.10  C++堆管理  53
3.2.11  Java本地接口  54
3.2.12  VM致命错误处理  55
3.3  HotSpot VM垃圾收集器  56
3.3.1  分代垃圾收集  56
3.3.2  新生代  58
3.3.3  快速内存分配  60
3.3.4  垃圾收集器  60
3.3.5  Serial收集器  61
3.3.6  Parallel收集器:吞吐量为先!  62
3.3.7  Mostly-Concurrent收集器:低延迟为先!  62
3.3.8  Garbage-First收集器:CMS替代者  64
3.3.9  垃圾收集器比较  64
3.3.10  应用程序对垃圾收集器的影响  65
3.3.11  简单回顾收集器历史  65
3.4  HotSpot VM JIT编译器  65
3.4.1  类型继承关系分析  67
3.4.2  编译策略  67
3.4.3  逆优化  68
3.4.4  Client JIT编译器概览  69
3.4.5  Server JIT编译器概览  69
3.4.6  静态单赋值——程序依赖图  69
3.4.7  未来增强展望  71
3.5  HotSpot VM自适应调优  71
3.5.1  Java 1.4.2的默认值  71
3.5.2  Java 5自动优化的默认值  71
3.5.3  Java 6 Update 18更新后的默认优化值  73
3.5.4  自适应Java堆调整  74
3.5.5  超越自动优化  75
3.6  参考资料  75
第4章 JVM性能监控  77
4.1  定义  77
4.2  垃圾收集  78
4.2.1  重要的垃圾收集数据  78
4.2.2  垃圾收集报告  78
4.2.3  垃圾收集数据的离线分析  86
4.2.4  图形化工具  89
4.3  JIT编译器  103
4.4  类加载  104
4.5  Java应用监控  106
4.6  参考资料  109
第5章 Java应用性能分析  110
5.1  术语  111
5.1.1  通用性能分析术语  111
5.1.2  Oracle Solaris Studio Performance Analyzer术语  112
5.1.3  NetBeans Profiler术语  112
5.2  Oracle Solaris Studio Performance Analyzer  112
5.2.1  支持平台  113
5.2.2  下载/安装Oracle Solaris Studio Performance Analyzer  114
5.2.3  使用Oracle Solaris Studio Performance Analyzer 抓取性能数据  114
5.2.4  查看性能数据  118
5.2.5  数据表示  125
5.2.6  过滤性能数据  128
5.2.7  命令行工具er_print  129
5.3  NetBeans Profiler  135
5.3.1  支持平台  136
5.3.2  下载安装NetBeans Profiler  136
5.3.3  开始方法分析会话  137
5.3.4  Controls子面板  143
5.3.5  Status子面板  143
5.3.6  Profiling Results子面板  143
5.3.7  Saved Snapshots子面板  144
5.3.8  View子面板  144
5.3.9  Basic Telemetry子面板  144
5.3.10  查看动态结果  145
5.3.11  对结果进行快照  145
5.3.12  启动内存分析会话  146
5.3.13  查看实时结果  148
5.3.14  对结果进行快照  150
5.3.15  定位内存泄漏  150
5.3.16  分析堆转储  151
5.4  参考资料  152
第6章 Java应用性能分析技巧  153
6.1  性能优化机会  153
6.2  系统或内核态CPU使用  154
6.3  锁竞争  161
6.4  Volatile的使用  171
6.5  调整数据结构的大小  172
6.5.1  StringBuilder或StringBuffer大小的调整  172
6.5.2  Java Collection类大小调整  175
6.6  增加并行性  179
6.7  过高的CPU使用率  181
6.8  其他有用的分析提示  182
6.9  参考资料  184
第7章 JVM性能调优入门  185
7.1  方法  185
7.1.1  假设条件  187
7.1.2  测试基础设施需求  188
7.2  应用程序的系统需求  188
7.2.1  可用性  188
7.2.2  可管理性  188
7.2.3  吞吐量  189
7.2.4  延迟及响应性  189
7.2.5  内存占用  189
7.2.6  启动时间  189
7.3  对系统需求分级  190
7.4  选择JVM部署模式  190
7.4.1  单JVM部署模式  190
7.4.2  多JVM部署模式  190
7.4.3  通用建议  191
7.5  选择JVM运行模式  191
7.5.1  Client模式或Server模式  191
7.5.2  32位/64位 JVM  192
7.5.3  垃圾收集器  192
7.6  垃圾收集调优基础  193
7.6.1  性能属性  193
7.6.2  原则  193
7.6.3  命令行选项及GC日志  194
7.7  确定内存占用  197
7.7.1  约束  197
7.7.2  HotSpot VM堆的布局  197
7.7.3  堆大小调优着眼点  200
7.7.4  计算活跃数据大小  201
7.7.5  初始堆空间大小配置  202
7.7.6  其他考量因素  203
7.8  调优延迟/响应性  204
7.8.1  输入  205
7.8.2  优化新生代的大小  205
7.8.3  优化老年代的大小  207
7.8.4  为CMS调优延迟  210
7.8.5  Survivor空间介绍  212
7.8.6  解析晋升阈值  214
7.8.7  监控晋升阈值  215
7.8.8  调整Survivor空间的容量  216
7.8.9  显式的垃圾收集  222
7.8.10  并发永久代垃圾收集  223
7.8.11  调优CMS停顿时间  224
7.8.12  下一步  225
7.9  应用程序吞吐量调优  225
7.9.1  CMS吞吐量调优  225
7.9.2  Throughput收集器调优  226
7.9.3  Survivor空间调优  228
7.9.4  调优并行垃圾收集线程  231
7.9.5  在NUMA系统上部署  231
7.9.6  下一步  232
7.10  极端示例  232
7.11  其他性能命令行选项  232
7.11.1  实验性(最近最大)优化  232
7.11.2  逃逸分析  233
7.11.3  偏向锁  233
7.11.4  大页面支持  234
7.12  参考资料  236
第8章 Java应用的基准测试  237
8.1  基准测试所面临的挑战  237
8.1.1  基准测试的预热阶段  238
8.1.2  垃圾收集  240
8.1.3  使用Java Time接口  240
8.1.4  剔除无效代码  241
8.1.5  内联  247
8.1.6  逆优化  251
8.1.7  创建微基准测试的注意事项  256
8.2  实验设计  257
8.3  使用统计方法  258
8.3.1  计算均值  258
8.3.2  计算标准差  258
8.3.3  计算置信区间  259
8.3.4  使用假设测试  260
8.3.5  使用统计方法的注意事项  262
8.4  参考文献  263
8.5  参考资料  263
第9章 多层应用的基准测试  264
9.1  基准测试难题  264
9.2  企业级应用基准测试的考量  266
9.2.1  定义被测系统  266
9.2.2  制定微基准测试  266
9.2.3  定义用户交互模型  267
9.2.4  定义性能指标  270
9.2.5  扩展基准测试  273
9.2.6  用利特尔法则验证  274
9.2.7  思考时间  275
9.2.8  扩展性分析  278
9.2.9  运行基准测试  278
9.3  应用服务器监控  281
9.3.1  GlassFish监控  281
9.3.2  监控子系统  286
9.3.3  Solaris  287
9.3.4  Linux  288
9.3.5  Windows  288
9.3.6  外部系统的性能  289
9.3.7  磁盘I/O  292
9.3.8  监控和调优资源池  293
9.4  企业级应用性能分析  294
9.5  参考资料  295
第10章 Web应用的性能调优  297
10.1  Web应用的基准测试  298
10.2  Web容器的组件  298
10.2.1  HTTP连接器  299
10.2.2  Servlet引擎  300
10.3  Web容器的监控和性能调优  300
10.3.1  容器的开发和生产模式  300
10.3.2  安全管理器  301
10.3.3  JVM调优  301
10.3.4  HTTP服务和Web容器  303
10.3.5  HTTP监听器  303
10.4  最佳实践  315
10.4.1  Servlet和JSP最佳实践  315
10.4.2  内容缓存  324
10.4.3  会话持久化  328
10.4.4  HTTP服务器文件缓存  329
10.5  参考资料  333
第11章 Web Service的性能  334
11.1  XML的性能  334
11.1.1  XML处理的生命周期  335
11.1.2  解析/解编组  335
11.1.3  访问  338
11.1.4  修改  338
11.1.5  序列化/编组  339
11.2  验证  339
11.3  解析外部实体  341
11.4  XML文档的局部处理  343
11.5  选择合适的API  346
11.6  JAX-WS参考实现栈  349
11.7  Web Service基准测试  350
11.8  影响Web Service性能的因素  353
11.8.1  消息大小的影响  353
11.8.2  不同Schema类型的性能特征  355
11.8.3  终端服务器的实现  358
11.8.4  处理程序的性能  359
11.9  最佳性能实践  361
11.9.1  二进制负载的处理  361
11.9.2  处理XML文档  365
11.9.3  使用MTOM发送XML文档  365
11.9.4  使用Provider接口  368
11.9.5  快速信息集  370
11.9.6  HTTP压缩  372
11.9.7  Web Service客户端的性能  373
11.10  参考资料  374
第12章 Java持久化及Enterprise Java Bean的性能  375
12.1  EJB编程模型  376
12.2  Java持久化API及其参考实现  376
12.3  监控及调优EJB容器  379
12.3.1  线程池  380
12.3.2  Bean池和缓存  382
12.3.3  EclipseLink会话缓存  385
12.4  事务隔离级  386
12.5  Enterprise Java Bean的最佳实践  387
12.5.1  简要说明使用的EJB基准测试  387
12.5.2  EJB 2.1  388
12.5.3  EJB 3.0  400
12.6  Java持久化最佳实践  403
12.6.1  JPA查询语言中的查询  403
12.6.2  查询结果缓存  405
12.6.3  FetchType  406
12.6.4  连接池  408
12.6.5  批量更新  409
12.6.6  选择正确的数据库锁策略  411
12.6.7  不带事务的读取  411
12.6.8  继承  411
12.7  参考资料  412
附录A  重要的HotSpot VM选项  413
附录B  性能分析技巧示例源代码  429
B.1  锁竞争实现1  429
B.2  锁竞争实现2  439
B.3  锁竞争实现3  449
B.4  锁竞争实现4  459
B.5  锁竞争实现5  469
B.6  调整容量变化1  481
B.7  调整容量变化2  492
B.8  增加并发性的单线程实现  504
B.9  增加并发性的多线程实现  514
· · · · · 


上一篇 下一篇