笔记4 2025/3/2
Redis的内存淘汰机制
Redis 是一种基于内存的键值存储系统,当内存不足时,Redis 会通过内存淘汰机制(Eviction Policy)来删除部分数据,以腾出空间存储新数据。Redis 提供了多种内存淘汰策略,可以根据实际需求进行配置。以下是 Redis 内存淘汰机制的详细介绍:
1. 内存淘汰机制的作用
- 当 Redis 的内存使用达到上限(通过
maxmemory
配置)时,内存淘汰机制会决定哪些数据可以被删除。 - 目的是在内存不足时,合理地释放空间,同时尽量保留重要的数据。
2. 内存淘汰策略
Redis 提供了 8 种内存淘汰策略,可以通过 maxmemory-policy
配置项设置:
(1)noeviction
- 默认策略。
- 当内存不足时,新写入操作会返回错误,不会淘汰任何数据。
- 适用于不允许数据丢失的场景。
(2)allkeys-lru
- 从所有键中淘汰最近最少使用(Least Recently Used, LRU)的键。
- 适用于需要保留热点数据的场景。
(3)volatile-lru
- 从设置了过期时间的键中淘汰最近最少使用的键。
- 适用于只淘汰临时数据的场景。
(4)allkeys-random
- 从所有键中随机淘汰键。
- 适用于数据访问模式随机的场景。
(5)volatile-random
- 从设置了过期时间的键中随机淘汰键。
- 适用于只淘汰临时数据且访问模式随机的场景。
(6)volatile-ttl
- 从设置了过期时间的键中淘汰存活时间最短(Time To Live, TTL)的键。
- 适用于优先淘汰即将过期的数据。
(7)allkeys-lfu
- 从所有键中淘汰最不经常使用(Least Frequently Used, LFU)的键。
- 适用于需要保留高频访问数据的场景。
(8)volatile-lfu
- 从设置了过期时间的键中淘汰最不经常使用的键。
- 适用于只淘汰临时数据且需要保留高频访问数据的场景。
3. LRU 和 LFU 的区别
LRU(Least Recently Used):
- 基于时间维度,淘汰最近最少使用的数据。
- 适用于数据访问模式随时间变化的场景。
LFU(Least Frequently Used):
- 基于频率维度,淘汰最不经常使用的数据。
- 适用于数据访问模式相对稳定的场景。
4. 配置内存淘汰策略
在 Redis 配置文件(redis.conf
)或运行时通过命令设置:
1 | # 设置最大内存为 1GB |
5. 内存淘汰的工作流程
- 当 Redis 内存使用达到
maxmemory
时,触发内存淘汰机制。 - 根据配置的淘汰策略,选择需要删除的键。
- 删除选中的键,释放内存空间。
- 继续处理新的写入请求。
6. 选择合适的内存淘汰策略
- 不允许数据丢失:使用
noeviction
。 - 需要保留热点数据:使用
allkeys-lru
或allkeys-lfu
。 - 只淘汰临时数据:使用
volatile-lru
、volatile-lfu
或volatile-ttl
。 - 数据访问模式随机:使用
allkeys-random
或volatile-random
。
7. 注意事项
- 数据备份:在启用内存淘汰机制时,确保重要数据有备份,避免数据丢失。
- 性能影响:频繁的内存淘汰可能会影响 Redis 的性能,需根据实际情况调整策略。
- 监控内存使用:通过
INFO memory
命令监控 Redis 的内存使用情况,及时调整配置。
8. 示例
假设 Redis 用于缓存用户会话数据,且会话数据设置了过期时间,可以选择 volatile-lru
策略:
1 | maxmemory 2gb |
总结
Redis 的内存淘汰机制通过多种策略在内存不足时释放空间,确保系统的稳定性和性能。根据数据特性和业务需求选择合适的淘汰策略,可以有效平衡内存使用和数据保留的需求。
java的并发控制机制
Java 提供了多种并发控制机制,用于管理多线程环境下的资源共享和线程协作。以下是 Java 中主要的并发控制机制:
1. synchronized 关键字
synchronized
是 Java 中最基本的并发控制机制,用于实现线程同步。
(1)同步方法
- 在方法声明中使用
synchronized
,锁对象是当前实例(this
)。1
2
3public synchronized void method() {
// 线程安全的代码
}
(2)同步代码块
- 使用
synchronized
锁定指定对象。1
2
3
4
5public void method() {
synchronized (lockObject) {
// 线程安全的代码
}
}
(3)静态同步方法
- 锁对象是当前类的
Class
对象。1
2
3public static synchronized void staticMethod() {
// 线程安全的代码
}
2. ReentrantLock
ReentrantLock
是 java.util.concurrent.locks
包中的一种可重入锁,提供了比 synchronized
更灵活的锁机制。
(1)基本用法
1 | ReentrantLock lock = new ReentrantLock(); |
(2)特性
- 可重入:同一个线程可以多次获取锁。
- 公平锁:通过构造函数指定是否为公平锁(默认非公平)。
- 条件变量:支持
Condition
,用于线程间通信。
3. ReadWriteLock
ReadWriteLock
是一种读写锁,允许多个读线程同时访问,但写线程独占访问。
(1)基本用法
1 | ReentrantReadWriteLock rwLock = new ReentrantReadWriteLock(); |
4. volatile 关键字
volatile
用于保证变量的可见性和禁止指令重排序,但不保证原子性。
(1)适用场景
- 适用于单写多读的场景。
- 例如,标志位的更新:
1
2
3
4
5
6
7
8
9
10
11private volatile boolean flag = false;
public void setFlag() {
flag = true;
}
public void checkFlag() {
if (flag) {
// 执行操作
}
}
5. Atomic 类
java.util.concurrent.atomic
包提供了一系列原子操作类,如 AtomicInteger
、AtomicLong
等。
(1)基本用法
1 | AtomicInteger atomicInt = new AtomicInteger(0); |
(2)特性
- 基于 CAS(Compare-And-Swap)实现,性能优于锁。
- 适用于简单的原子操作。
6. CountDownLatch
CountDownLatch
是一种同步工具,用于等待多个线程完成任务。
(1)基本用法
1 | CountDownLatch latch = new CountDownLatch(3); |
7. CyclicBarrier
CyclicBarrier
是一种同步工具,用于让一组线程互相等待,达到屏障点后继续执行。
(1)基本用法
1 | CyclicBarrier barrier = new CyclicBarrier(3); |
8. Semaphore
Semaphore
是一种计数信号量,用于控制同时访问资源的线程数量。
(1)基本用法
1 | Semaphore semaphore = new Semaphore(3); // 允许3个线程同时访问 |
9. ThreadLocal
ThreadLocal
为每个线程提供独立的变量副本,避免线程间共享变量。
(1)基本用法
1 | ThreadLocal<Integer> threadLocal = ThreadLocal.withInitial(() -> 0); |
10. ForkJoinPool
ForkJoinPool
是 Java 7 引入的线程池,适用于分治任务(如递归任务)。
(1)基本用法
1 | ForkJoinPool pool = new ForkJoinPool(); |
总结
Java 提供了丰富的并发控制机制,包括:
- 锁机制:
synchronized
、ReentrantLock
、ReadWriteLock
。 - 原子操作:
volatile
、Atomic
类。 - 同步工具:
CountDownLatch
、CyclicBarrier
、Semaphore
。 - 线程局部变量:
ThreadLocal
。 - 线程池:
ForkJoinPool
。
根据具体场景选择合适的并发控制机制,可以有效提高多线程程序的性能和可靠性。
threadlocal
ThreadLocal
是 Java 中用于实现线程本地存储的类。它为每个线程提供了一个独立的变量副本,使得每个线程可以独立地操作自己的变量,而不会影响其他线程中的变量。ThreadLocal
的主要作用是解决多线程环境下共享变量的线程安全问题。
1. ThreadLocal 的作用
- 线程隔离:每个线程拥有自己的变量副本,互不干扰。
- 避免同步:由于变量是线程私有的,无需使用同步机制(如
synchronized
)。 - 简化设计:适用于需要在线程生命周期内保持状态的场景(如用户会话、数据库连接等)。
2. ThreadLocal 的基本用法
(1)创建 ThreadLocal 变量
1 | ThreadLocal<Integer> threadLocal = new ThreadLocal<>(); |
(2)设置和获取值
1 | threadLocal.set(100); // 设置当前线程的值 |
(3)移除值
1 | threadLocal.remove(); // 移除当前线程的值 |
(4)初始化值
可以通过重写 initialValue
方法为 ThreadLocal
提供初始值:
1 | ThreadLocal<Integer> threadLocal = ThreadLocal.withInitial(() -> 0); |
3. ThreadLocal 的实现原理
ThreadLocal
的核心实现依赖于 Thread
类中的 ThreadLocalMap
。
(1)ThreadLocalMap
- 每个线程(
Thread
对象)内部维护了一个ThreadLocalMap
。 ThreadLocalMap
是一个自定义的哈希表,键是ThreadLocal
对象,值是线程本地变量。
(2)数据存储
- 当调用
threadLocal.set(value)
时,数据存储在当前线程的ThreadLocalMap
中。 - 当调用
threadLocal.get()
时,从当前线程的ThreadLocalMap
中获取数据。
(3)内存结构
1 | Thread |
4. ThreadLocal 的适用场景
- 用户会话管理:在 Web 应用中,将用户会话信息存储在线程本地变量中。
- 数据库连接管理:为每个线程分配独立的数据库连接。
- 日期格式化:避免
SimpleDateFormat
的线程安全问题。 - 上下文传递:在调用链中传递上下文信息(如日志跟踪 ID)。
5. ThreadLocal 的内存泄漏问题
ThreadLocal
使用不当可能导致内存泄漏。
(1)原因
ThreadLocalMap
中的键是弱引用(WeakReference
),但值是强引用。- 如果
ThreadLocal
对象被回收,但线程仍然存活,ThreadLocalMap
中的值不会被回收。
(2)解决方案
- 使用完
ThreadLocal
后,调用remove()
方法清除数据。 - 避免长时间存活的线程(如线程池中的线程)持有
ThreadLocal
变量。
6. ThreadLocal 的示例
(1)用户会话管理
1 | public class UserContext { |
(2)数据库连接管理
1 | public class ConnectionManager { |
7. ThreadLocal 的注意事项
- 避免滥用:
ThreadLocal
会增加内存开销,适用于特定场景。 - 及时清理:使用完
ThreadLocal
后调用remove()
方法,避免内存泄漏。 - 线程池问题:线程池中的线程会复用,可能导致
ThreadLocal
数据残留,需在任务执行前后清理数据。
总结
ThreadLocal
是 Java 中实现线程本地存储的重要工具,适用于需要在线程生命周期内保持状态的场景。正确使用 ThreadLocal
可以避免线程安全问题,但需要注意内存泄漏和线程池中的清理问题。
java引用会产生的问题
在 Java 中,引用是对象访问的基础,但如果使用不当,可能会引发一系列问题,包括内存泄漏、性能下降、数据不一致等。以下是 Java 引用可能产生的常见问题及其解决方案:
1. 内存泄漏(Memory Leak)
(1)问题描述
- 内存泄漏是指程序中不再使用的对象仍然被引用,导致垃圾回收器无法回收这些对象,最终耗尽内存。
- 常见场景:
- 静态集合类(如
HashMap
、List
)持有对象的引用。 - 未正确释放资源(如文件流、数据库连接)。
ThreadLocal
使用不当。
- 静态集合类(如
(2)解决方案
- 及时清理不再使用的对象引用。
- 使用弱引用(
WeakReference
)或软引用(SoftReference
)代替强引用。 - 使用
try-with-resources
或手动关闭资源。 - 对于
ThreadLocal
,使用完后调用remove()
方法。
2. 循环引用(Circular Reference)
(1)问题描述
- 两个或多个对象相互引用,导致垃圾回收器无法回收这些对象。
- 例如:
1
2
3
4
5
6
7
8
9
10class A {
B b;
}
class B {
A a;
}
A a = new A();
B b = new B();
a.b = b;
b.a = a;
(2)解决方案
- 使用弱引用(
WeakReference
)或手动打破循环引用。 - 使用垃圾回收器友好的设计(如单向引用)。
3. 数据不一致(Data Inconsistency)
(1)问题描述
- 多个线程共享同一个对象引用时,可能导致数据不一致。
- 例如:
1
2
3
4
5
6
7
8class Counter {
int count = 0;
void increment() {
count++;
}
}
Counter counter = new Counter();
// 多个线程同时调用 counter.increment()
(2)解决方案
- 使用同步机制(如
synchronized
、ReentrantLock
)。 - 使用原子类(如
AtomicInteger
)。 - 使用不可变对象(
Immutable Object
)。
4. 对象逃逸(Object Escape)
(1)问题描述
- 对象在未完全构造完成时被其他线程访问,可能导致不可预知的行为。
- 例如:
1
2
3
4
5
6
7
8
9public class ThisEscape {
public ThisEscape(EventSource source) {
source.registerListener(new EventListener() {
public void onEvent(Event e) {
doSomething(e);
}
});
}
}
(2)解决方案
- 避免在构造函数中发布
this
引用。 - 使用工厂方法或静态方法确保对象完全构造后再发布。
5. 引用类型选择不当
(1)问题描述
- Java 提供了四种引用类型:强引用、软引用、弱引用和虚引用。选择不当可能导致性能问题或内存泄漏。
- 例如:
- 使用强引用缓存大量数据,可能导致内存不足。
- 使用弱引用缓存数据,可能导致数据被过早回收。
(2)解决方案
- 根据场景选择合适的引用类型:
- 强引用:默认引用类型,适用于需要长期持有的对象。
- 软引用:适用于缓存,内存不足时会被回收。
- 弱引用:适用于临时缓存,垃圾回收时会被回收。
- 虚引用:用于对象回收跟踪。
6. 对象生命周期管理不当
(1)问题描述
- 对象生命周期管理不当可能导致资源浪费或内存泄漏。
- 例如:
- 长时间持有不再使用的对象引用。
- 未正确释放资源(如文件、网络连接)。
(2)解决方案
- 使用
try-with-resources
或手动释放资源。 - 使用对象池(如数据库连接池)管理资源。
7. 引用与垃圾回收
(1)问题描述
- 强引用可能导致对象无法被垃圾回收,即使这些对象不再使用。
- 例如:
1
2Object obj = new Object(); // 强引用
obj = null; // 解除引用
(2)解决方案
- 及时解除不再使用的对象引用。
- 使用弱引用或软引用管理缓存。
8. 引用与并发问题
(1)问题描述
- 多线程环境下,共享对象的引用可能导致并发问题(如竞态条件、死锁)。
- 例如:
1
2
3
4
5class SharedResource {
int value;
}
SharedResource resource = new SharedResource();
// 多个线程同时修改 resource.value
(2)解决方案
- 使用同步机制(如
synchronized
、ReentrantLock
)。 - 使用线程安全的集合类(如
ConcurrentHashMap
)。
总结
Java 引用可能引发的问题包括内存泄漏、循环引用、数据不一致、对象逃逸等。通过合理设计和管理引用,可以有效避免这些问题:
- 及时清理不再使用的引用。
- 根据场景选择合适的引用类型。
- 使用同步机制和线程安全工具。
- 避免对象逃逸和生命周期管理不当。
正确使用引用是编写高效、稳定 Java 程序的关键。
垃圾回收机制
垃圾回收(Garbage Collection, GC)是 Java 虚拟机(JVM)自动管理内存的机制,用于回收不再使用的对象,释放内存空间。以下是 Java 垃圾回收机制的详细介绍:
1. 垃圾回收的基本概念
- 垃圾对象:不再被任何引用指向的对象。
- 垃圾回收的目标:识别并回收垃圾对象,释放内存。
- 垃圾回收的优点:
- 自动管理内存,减少内存泄漏。
- 简化开发,无需手动释放内存。
2. 垃圾回收的工作原理
垃圾回收机制主要包括以下步骤:
(1)标记(Marking)
- 遍历所有对象,标记哪些对象是存活的(即仍然被引用)。
- 从根对象(如栈帧中的局部变量、静态变量等)开始,递归标记所有可达对象。
(2)清除(Sweeping)
- 回收未被标记的对象(即垃圾对象)。
- 释放这些对象占用的内存。
(3)压缩(Compacting)(可选)
- 将存活对象移动到内存的一端,减少内存碎片。
- 提高内存分配的效率。
3. 垃圾回收算法
Java 使用了多种垃圾回收算法,以下是常见的几种:
(1)标记-清除算法(Mark-Sweep)
- 步骤:
- 标记所有存活对象。
- 清除未标记的对象。
- 缺点:
- 产生内存碎片。
- 效率较低。
(2)标记-整理算法(Mark-Compact)
- 步骤:
- 标记所有存活对象。
- 将存活对象移动到内存的一端。
- 清除边界外的内存。
- 优点:
- 减少内存碎片。
- 缺点:
- 移动对象需要额外开销。
(3)复制算法(Copying)
- 步骤:
- 将内存分为两个区域(From 和 To)。
- 将 From 区的存活对象复制到 To 区。
- 清空 From 区。
- 优点:
- 简单高效,无内存碎片。
- 缺点:
- 内存利用率低(只能使用一半内存)。
(4)分代收集算法(Generational Collection)
- 原理:
- 根据对象的生命周期将内存分为不同代(如年轻代、老年代)。
- 对不同代使用不同的垃圾回收算法。
- 优点:
- 提高垃圾回收效率。
4. Java 中的垃圾回收器
Java 提供了多种垃圾回收器,适用于不同的场景:
(1)Serial GC
- 单线程垃圾回收器。
- 适用于单核 CPU 或小型应用。
(2)Parallel GC(吞吐量优先)
- 多线程垃圾回收器。
- 适用于多核 CPU,追求高吞吐量。
(3)CMS GC(Concurrent Mark-Sweep)
- 并发垃圾回收器,减少停顿时间。
- 适用于对响应时间敏感的应用。
(4)G1 GC(Garbage-First)
- 面向服务端应用的垃圾回收器。
- 将堆内存划分为多个区域,优先回收垃圾最多的区域。
- 平衡吞吐量和停顿时间。
(5)ZGC(Z Garbage Collector)
- 低延迟垃圾回收器,停顿时间不超过 10ms。
- 适用于大内存和低延迟要求的应用。
(6)Shenandoah GC
- 低延迟垃圾回收器,与 ZGC 类似。
- 适用于大内存和低延迟要求的应用。
5. 分代垃圾回收
Java 堆内存通常分为以下几个区域:
(1)年轻代(Young Generation)
- 存放新创建的对象。
- 垃圾回收频繁,使用复制算法。
- 分为 Eden 区和两个 Survivor 区(From 和 To)。
(2)老年代(Old Generation)
- 存放长期存活的对象。
- 垃圾回收较少,使用标记-清除或标记-整理算法。
(3)永久代/元空间(PermGen/Metaspace)
- 存放类元数据(Java 8 之前为永久代,之后为元空间)。
- 垃圾回收较少。
6. 垃圾回收的触发条件
- 年轻代满:触发 Minor GC(年轻代垃圾回收)。
- 老年代满:触发 Full GC(全堆垃圾回收)。
- **System.gc()**:建议 JVM 执行垃圾回收(不保证立即执行)。
- 内存不足:当堆内存不足时触发垃圾回收。
7. 垃圾回收的性能优化
- 调整堆大小:通过
-Xms
和-Xmx
设置初始和最大堆大小。 - 选择合适的垃圾回收器:根据应用需求选择 Serial、Parallel、CMS、G1 等。
- 减少对象创建:避免频繁创建和销毁对象。
- 使用对象池:复用对象,减少垃圾回收压力。
8. 垃圾回收的监控与调优
- 监控工具:
jstat
:查看垃圾回收统计信息。jmap
:生成堆内存快照。jvisualvm
:图形化监控工具。
- 调优参数:
-XX:+UseSerialGC
:使用 Serial GC。-XX:+UseParallelGC
:使用 Parallel GC。-XX:+UseConcMarkSweepGC
:使用 CMS GC。-XX:+UseG1GC
:使用 G1 GC。
总结
Java 的垃圾回收机制通过自动管理内存,简化了开发工作,但也需要根据应用场景进行调优。理解垃圾回收的工作原理、算法和回收器,可以帮助我们编写高效、稳定的 Java 程序。
CMS
CMS(Concurrent Mark-Sweep)垃圾回收器是 Java 中一种以低延迟为目标的垃圾回收器,主要用于老年代(Old Generation)的垃圾回收。它的设计目标是减少垃圾回收时的停顿时间,适用于对响应时间敏感的应用场景。
1. CMS 的特点
- 并发收集:大部分垃圾回收工作与应用程序线程并发执行,减少停顿时间。
- 低延迟:适用于对停顿时间敏感的应用(如 Web 服务、实时系统)。
- 标记-清除算法:使用标记-清除算法,不会对内存进行压缩,可能导致内存碎片。
2. CMS 的工作流程
CMS 的垃圾回收过程分为以下几个阶段:
(1)初始标记(Initial Mark)
- 标记从根对象(如栈帧中的局部变量、静态变量等)直接可达的对象。
- 需要暂停应用程序线程(Stop-The-World, STW),但时间很短。
(2)并发标记(Concurrent Mark)
- 遍历老年代,标记所有存活对象。
- 与应用程序线程并发执行,无需暂停应用程序。
(3)重新标记(Remark)
- 修正并发标记期间因应用程序运行而变动的对象标记。
- 需要暂停应用程序线程(STW),但时间比初始标记稍长。
(4)并发清除(Concurrent Sweep)
- 清除未被标记的对象(即垃圾对象)。
- 与应用程序线程并发执行,无需暂停应用程序。
(5)并发重置(Concurrent Reset)
- 重置 CMS 内部数据结构,为下一次垃圾回收做准备。
- 与应用程序线程并发执行。
3. CMS 的优缺点
(1)优点
- 低停顿时间:大部分工作与应用程序并发执行,减少停顿时间。
- 适合低延迟场景:适用于对响应时间敏感的应用。
(2)缺点
- 内存碎片:使用标记-清除算法,不压缩内存,可能导致内存碎片。
- CPU 资源占用:并发阶段占用 CPU 资源,可能影响应用程序性能。
- 浮动垃圾:并发清除阶段可能产生新的垃圾对象,需等待下一次回收。
4. CMS 的适用场景
- 对停顿时间敏感的应用:如 Web 服务、实时系统。
- 老年代对象生命周期较长的应用:CMS 更适合处理长期存活的对象。
5. CMS 的配置参数
以下是一些常用的 CMS 相关 JVM 参数:
(1)启用 CMS
1 | -XX:+UseConcMarkSweepGC |
(2)设置并行标记线程数
1 | -XX:ParallelGCThreads=<n> |
(3)设置 CMS 触发阈值
- 当老年代使用率达到一定比例时触发 CMS。
1
-XX:CMSInitiatingOccupancyFraction=<percent>
(4)启用内存压缩
- 在 Full GC 时进行内存压缩。
1
-XX:+UseCMSCompactAtFullCollection
(5)设置 Full GC 前的 CMS 次数
- 在 Full GC 前进行多少次 CMS。
1
-XX:CMSFullGCsBeforeCompaction=<n>
6. CMS 的调优建议
- 合理设置触发阈值:根据应用的内存使用情况调整
CMSInitiatingOccupancyFraction
。 - 监控内存碎片:如果内存碎片严重,考虑启用内存压缩或切换到 G1 GC。
- 调整线程数:根据 CPU 核心数设置
ParallelGCThreads
,避免过多占用 CPU 资源。
7. CMS 的替代方案
随着 Java 的发展,CMS 已被标记为废弃(Deprecated),推荐使用以下垃圾回收器:
- G1 GC:适用于大内存和低延迟场景,平衡吞吐量和停顿时间。
- ZGC:超低延迟垃圾回收器,停顿时间不超过 10ms。
- Shenandoah GC:低延迟垃圾回收器,与 ZGC 类似。
总结
CMS 是一种以低延迟为目标的垃圾回收器,适用于对停顿时间敏感的应用场景。它的并发收集机制减少了停顿时间,但也存在内存碎片和 CPU 资源占用的问题。随着 Java 的发展,CMS 已逐渐被 G1 GC、ZGC 等更先进的垃圾回收器取代。
AOP和反射的关系?AOP有哪些实现方式
AOP 和反射的关系
AOP(面向切面编程,Aspect-Oriented Programming) 和 反射(Reflection) 是 Java 中两个不同的概念,但它们在某些场景下可以结合使用。
1. AOP 的核心思想
AOP 是一种编程范式,用于将横切关注点(如日志、事务、权限检查等)从业务逻辑中分离出来,通过切面(Aspect)的方式统一管理。AOP 的核心是通过动态代理或字节码增强技术在运行时动态地将切面逻辑织入目标方法中。
2. 反射的核心思想
反射是 Java 提供的一种机制,允许程序在运行时动态地获取类的信息(如方法、字段、构造函数等)并操作对象。反射的核心是通过 Class
类和相关 API 实现动态调用。
3. AOP 和反射的关系
- AOP 的实现依赖于反射:
- 在动态代理(如 JDK 动态代理)中,AOP 框架通过反射调用目标方法。
- 在字节码增强(如 CGLIB)中,AOP 框架通过反射生成代理类。
- 反射是 AOP 的底层支持:
- AOP 框架需要在运行时动态地获取目标方法的信息,并调用切面逻辑,这些操作都依赖于反射。
4. 总结
- AOP 是一种编程范式,用于解耦横切关注点。
- 反射是 Java 的一种机制,用于动态操作类和对象。
- AOP 的实现通常依赖于反射,但反射本身并不等同于 AOP。
AOP 的实现方式
AOP 的实现方式主要有以下几种:
1. 动态代理
动态代理是 AOP 的常见实现方式,分为两种:
JDK 动态代理:
- 基于接口实现,要求目标类必须实现接口。
- 通过
java.lang.reflect.Proxy
创建代理对象。 - 示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31public interface UserService {
void save();
}
public class UserServiceImpl implements UserService {
public void save() {
System.out.println("保存用户");
}
}
public class ProxyFactory {
public static Object getProxy(Object target) {
return Proxy.newProxyInstance(
target.getClass().getClassLoader(),
target.getClass().getInterfaces(),
(proxy, method, args) -> {
System.out.println("前置通知");
Object result = method.invoke(target, args);
System.out.println("后置通知");
return result;
}
);
}
}
public class Main {
public static void main(String[] args) {
UserService userService = (UserService) ProxyFactory.getProxy(new UserServiceImpl());
userService.save();
}
}
CGLIB 动态代理:
- 基于子类实现,不要求目标类实现接口。
- 通过字节码增强生成目标类的子类。
- 示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26public class UserService {
public void save() {
System.out.println("保存用户");
}
}
public class ProxyFactory {
public static Object getProxy(Class<?> clazz) {
Enhancer enhancer = new Enhancer();
enhancer.setSuperclass(clazz);
enhancer.setCallback((MethodInterceptor) (obj, method, args, proxy) -> {
System.out.println("前置通知");
Object result = proxy.invokeSuper(obj, args);
System.out.println("后置通知");
return result;
});
return enhancer.create();
}
}
public class Main {
public static void main(String[] args) {
UserService userService = (UserService) ProxyFactory.getProxy(UserService.class);
userService.save();
}
}
2. 字节码增强
字节码增强是通过修改类的字节码来实现 AOP 的一种方式,常见的工具有:
- ASM:直接操作字节码,性能高,但使用复杂。
- Byte Buddy:简化了字节码操作,易于使用。
- Javassist:提供了高级 API,适合快速开发。
3. 编译时织入(AspectJ)
AspectJ 是一个功能强大的 AOP 框架,支持编译时织入和加载时织入:
- 编译时织入:在编译阶段将切面逻辑织入目标类。
- 加载时织入:在类加载时将切面逻辑织入目标类。
- 示例:
1
2
3
4
5
6
7
public class LogAspect {
public void before(JoinPoint joinPoint) {
System.out.println("前置通知");
}
}
4. 注解驱动(Spring AOP)
Spring AOP 是基于动态代理和 AspectJ 注解的 AOP 实现方式:
- 使用
@Aspect
定义切面。 - 使用
@Before
、@After
、@Around
等注解定义通知。 - 示例:
1
2
3
4
5
6
7
8
public class LogAspect {
public void before(JoinPoint joinPoint) {
System.out.println("前置通知");
}
}
总结
- AOP 和反射的关系:
- AOP 的实现依赖于反射,反射是 AOP 的底层支持。
- AOP 的实现方式:
- 动态代理(JDK 动态代理、CGLIB)。
- 字节码增强(ASM、Byte Buddy、Javassist)。
- 编译时织入(AspectJ)。
- 注解驱动(Spring AOP)。
根据具体需求选择合适的 AOP 实现方式,可以有效地解耦横切关注点,提高代码的可维护性和可扩展性。
https握手的过程
HTTPS 握手过程是客户端(如浏览器)和服务器之间建立安全通信连接的关键步骤。它基于 TLS/SSL 协议,确保数据在传输过程中的机密性、完整性和身份验证。以下是 HTTPS 握手的详细过程:
1. HTTPS 握手的目标
- 身份验证:客户端验证服务器的身份,确保连接到的是合法的服务器。
- 密钥交换:客户端和服务器协商出一个对称加密密钥,用于后续通信的加密和解密。
- 加密通信:确保数据在传输过程中不被窃听或篡改。
2. HTTPS 握手的步骤
HTTPS 握手过程通常分为以下几个阶段:
(1)客户端发起请求(Client Hello)
- 客户端向服务器发送
Client Hello
消息,包含以下信息:- 支持的 TLS/SSL 版本(如 TLS 1.2、TLS 1.3)。
- 客户端生成的随机数(Client Random),用于后续密钥生成。
- 支持的加密套件(Cipher Suites),如
TLS_ECDHE_RSA_WITH_AES_128_GCM_SHA256
。 - 支持的压缩方法(可选)。
(2)服务器响应(Server Hello)
- 服务器向客户端发送
Server Hello
消息,包含以下信息:- 选择的 TLS/SSL 版本。
- 服务器生成的随机数(Server Random),用于后续密钥生成。
- 选择的加密套件。
- 服务器的证书(包含公钥)。
- 如果需要客户端证书,服务器会发送
Certificate Request
。
(3)服务器证书验证
- 客户端验证服务器的证书:
- 检查证书是否由受信任的证书颁发机构(CA)签发。
- 检查证书是否在有效期内。
- 检查证书中的域名是否与访问的域名一致。
- 如果验证失败,客户端会终止连接。
(4)密钥交换(Key Exchange)
- 客户端生成一个预主密钥(Pre-Master Secret),并使用服务器的公钥加密后发送给服务器(
Client Key Exchange
)。 - 服务器使用私钥解密预主密钥。
- 客户端和服务器根据预主密钥、Client Random 和 Server Random 生成主密钥(Master Secret),用于后续对称加密。
(5)完成握手(Finished)
- 客户端和服务器分别发送
Finished
消息,验证握手过程是否成功。 - 消息中包含之前所有握手消息的摘要,用于验证数据的完整性。
(6)加密通信
- 握手完成后,客户端和服务器使用协商出的对称密钥加密通信数据。
3. TLS 1.3 的改进
TLS 1.3 对握手过程进行了优化,减少了握手次数和延迟:
- 简化握手:TLS 1.3 的握手过程只需 1-RTT(Round-Trip Time),而 TLS 1.2 需要 2-RTT。
- 移除不安全的加密套件:TLS 1.3 移除了不安全的加密算法(如 RSA 密钥交换)。
- 0-RTT 模式:支持在第一次握手时发送加密数据,进一步减少延迟。
4. HTTPS 握手的图示
1 | 客户端 服务器 |
5. HTTPS 握手的关键点
- 证书:用于验证服务器的身份,由受信任的 CA 签发。
- 密钥交换:通过非对称加密(如 RSA、ECDHE)协商出对称密钥。
- 加密通信:使用对称加密(如 AES)保护数据的机密性和完整性。
6. HTTPS 握手的性能优化
- 会话恢复(Session Resumption):
- 通过会话 ID 或会话票证(Session Ticket)恢复之前的会话,减少握手时间。
- OCSP Stapling:
- 服务器在握手时提供证书的状态信息,减少客户端验证证书的时间。
- HTTP/2:
- 支持多路复用,减少握手次数对性能的影响。
总结
HTTPS 握手是建立安全通信连接的关键步骤,通过身份验证、密钥交换和加密通信确保数据的安全性。TLS 1.3 进一步优化了握手过程,减少了延迟和性能开销。理解 HTTPS 握手的过程有助于更好地调试和优化 Web 应用的性能。
http3.0
HTTP/3 是 HTTP 协议的第三个主要版本,于 2022 年 6 月正式发布为 RFC 9114。它是基于 QUIC 协议的全新版本,旨在解决 HTTP/2 和 HTTP/1.x 的局限性,提供更高效、更安全的网络通信。
1. HTTP/3 的核心特点
HTTP/3 的主要改进包括:
(1)基于 QUIC 协议
- HTTP/3 使用 QUIC(Quick UDP Internet Connections)作为底层传输协议,而不是 TCP。
- QUIC 基于 UDP,避免了 TCP 的队头阻塞(Head-of-Line Blocking)问题。
(2)多路复用
- 类似于 HTTP/2,HTTP/3 支持多路复用,允许多个请求和响应在同一连接上并行传输。
- 由于基于 QUIC,HTTP/3 的多路复用更加高效,避免了 TCP 的队头阻塞。
(3)更低的延迟
- QUIC 集成了 TLS 1.3,减少了握手时间。
- 支持 0-RTT(零往返时间)连接,进一步降低延迟。
(4)连接迁移
- QUIC 使用连接 ID 而不是 IP 地址和端口来标识连接。
- 当网络切换(如从 Wi-Fi 切换到移动网络)时,连接可以无缝迁移,无需重新建立。
(5)改进的拥塞控制
- QUIC 提供了更灵活的拥塞控制机制,适应不同的网络环境。
(6)安全性
- QUIC 默认使用 TLS 1.3 加密,确保数据传输的安全性。
2. HTTP/3 的工作原理
HTTP/3 的核心是 QUIC 协议,其工作原理如下:
(1)连接建立
- 客户端和服务器通过 QUIC 协议建立连接。
- QUIC 集成了 TLS 1.3,握手过程与加密层合并,减少了握手次数。
(2)数据传输
- 数据通过 QUIC 流(Stream)传输,每个流独立处理,避免了队头阻塞。
- HTTP/3 在 QUIC 流上传输 HTTP 消息(请求和响应)。
(3)连接迁移
- 当客户端 IP 地址或端口发生变化时,QUIC 使用连接 ID 保持连接,无需重新握手。
3. HTTP/3 与 HTTP/2 的区别
特性 | HTTP/2 | HTTP/3 |
---|---|---|
传输协议 | 基于 TCP | 基于 QUIC(UDP) |
队头阻塞 | 在 TCP 层存在队头阻塞 | 完全解决队头阻塞 |
握手时间 | 需要 TCP 三次握手和 TLS 握手 | QUIC 整合 TLS 1.3,握手更快 |
连接迁移 | 不支持 | 支持,切换网络时无需重新连接 |
安全性 | 需要额外配置 TLS | 默认使用 TLS 1.3,内置加密 |
错误恢复 | 依赖 TCP 的重传机制 | QUIC 内置错误恢复,更快更可靠 |
4. HTTP/3 的优势
- 更低的延迟:通过 0-RTT 和快速握手减少延迟。
- 更高的性能:多路复用和队头阻塞的解决提高了传输效率。
- 更好的移动支持:连接迁移功能适合移动设备。
- 更强的安全性:默认加密,防止数据泄露和篡改。
5. HTTP/3 的挑战
- 部署复杂度:需要服务器和客户端支持 QUIC 协议。
- 网络设备兼容性:部分网络设备可能不支持 UDP 或 QUIC。
- 普及度:目前 HTTP/3 的普及率仍在增长中。
6. HTTP/3 的支持情况
- 浏览器:
- Chrome、Firefox、Edge 和 Safari 均已支持 HTTP/3。
- 服务器:
- Nginx、Apache、Caddy 等主流服务器已支持 HTTP/3。
- CDN:
- Cloudflare、Google Cloud、Akamai 等 CDN 提供商已支持 HTTP/3。
7. 如何启用 HTTP/3
(1)服务器配置
以 Nginx 为例:
- 确保 Nginx 版本支持 HTTP/3(1.25.0 及以上)。
- 编译 Nginx 时启用 QUIC 支持:
1
./configure --with-http_v3_module
- 在配置文件中启用 HTTP/3:
1
2
3
4
5
6
7
8server {
listen 443 quic reuseport;
listen 443 ssl;
http2 on;
http3 on;
ssl_certificate /path/to/cert.pem;
ssl_certificate_key /path/to/key.pem;
}
(2)客户端使用
- 使用支持 HTTP/3 的浏览器(如 Chrome 或 Firefox)。
- 在浏览器地址栏中输入
chrome://flags
或about:config
,启用 HTTP/3 支持。
8. HTTP/3 的未来
- 逐步取代 HTTP/2:随着 QUIC 协议的普及,HTTP/3 将成为主流。
- 更多应用场景:适用于实时通信、视频流、在线游戏等对延迟敏感的场景。
总结
HTTP/3 是基于 QUIC 协议的新一代 HTTP 版本,通过解决队头阻塞、降低延迟和提高安全性,显著提升了网络通信的性能和效率。尽管部署和普及仍面临一些挑战,HTTP/3 无疑是未来 Web 通信的重要发展方向。
MySQL事务隔离的级别
MySQL 的事务隔离级别定义了事务在并发环境下的可见性和一致性行为。MySQL 支持四种标准的事务隔离级别,分别是:读未提交(Read Uncommitted)、读已提交(Read Committed)、可重复读(Repeatable Read) 和 串行化(Serializable)。每种隔离级别在性能和数据一致性之间提供了不同的权衡。
1. 事务隔离级别的作用
事务隔离级别主要用于解决并发事务中的以下问题:
- 脏读(Dirty Read):一个事务读取了另一个未提交事务的数据。
- 不可重复读(Non-Repeatable Read):一个事务内多次读取同一数据,结果不一致。
- 幻读(Phantom Read):一个事务内多次查询同一范围的数据,结果集不一致。
2. MySQL 的四种事务隔离级别
(1)读未提交(Read Uncommitted)
- 描述:最低的隔离级别,允许事务读取其他未提交事务的数据。
- 问题:
- 可能发生脏读、不可重复读和幻读。
- 适用场景:对数据一致性要求极低的场景,如统计查询。
(2)读已提交(Read Committed)
- 描述:事务只能读取其他已提交事务的数据。
- 问题:
- 避免了脏读,但可能发生不可重复读和幻读。
- 适用场景:大多数数据库的默认隔离级别,适合一般业务场景。
(3)可重复读(Repeatable Read)
- 描述:确保事务内多次读取同一数据的结果一致。
- 问题:
- 避免了脏读和不可重复读,但可能发生幻读。
- 适用场景:MySQL 的默认隔离级别,适合需要高一致性的场景。
(4)串行化(Serializable)
- 描述:最高的隔离级别,事务串行执行,完全避免并发问题。
- 问题:
- 避免了脏读、不可重复读和幻读,但性能最差。
- 适用场景:对数据一致性要求极高的场景,如金融交易。
3. 隔离级别与并发问题的关系
隔离级别 | 脏读(Dirty Read) | 不可重复读(Non-Repeatable Read) | 幻读(Phantom Read) |
---|---|---|---|
读未提交 | 可能 | 可能 | 可能 |
读已提交 | 不可能 | 可能 | 可能 |
可重复读 | 不可能 | 不可能 | 可能 |
串行化 | 不可能 | 不可能 | 不可能 |
4. 如何设置事务隔离级别
(1)查看当前隔离级别
1 | SELECT @@transaction_isolation; |
(2)设置会话隔离级别
1 | SET SESSION TRANSACTION ISOLATION LEVEL READ COMMITTED; |
(3)设置全局隔离级别
1 | SET GLOBAL TRANSACTION ISOLATION LEVEL REPEATABLE READ; |
(4)在事务中设置隔离级别
1 | START TRANSACTION; |
5. 隔离级别的实现原理
MySQL 通过以下机制实现不同的事务隔离级别:
- 锁机制:
- 共享锁(S Lock):允许其他事务读取,但不允许写入。
- 排他锁(X Lock):禁止其他事务读取和写入。
- 多版本并发控制(MVCC):
- 通过版本链实现非阻塞读操作。
- 在读已提交和可重复读隔离级别下使用。
6. 隔离级别的选择建议
- 读未提交:几乎不使用,除非对性能要求极高且可以容忍脏读。
- 读已提交:适合大多数业务场景,平衡性能和数据一致性。
- 可重复读:MySQL 的默认级别,适合需要高一致性的场景。
- 串行化:适合对数据一致性要求极高的场景,但性能较差。
7. 示例
(1)脏读示例
1 | -- 事务 A |
(2)不可重复读示例
1 | -- 事务 A |
(3)幻读示例
1 | -- 事务 A |
总结
MySQL 的事务隔离级别提供了不同的数据一致性和性能权衡:
- 读未提交:性能最好,但一致性最差。
- 读已提交:平衡性能和一致性。
- 可重复读:MySQL 默认级别,适合高一致性场景。
- 串行化:一致性最强,但性能最差。
根据业务需求选择合适的隔离级别,可以有效解决并发事务中的数据一致性问题。
MySQL底层是用什么机制去实现这些级别的
MySQL 通过 锁机制(Locking) 和 多版本并发控制(MVCC,Multi-Version Concurrency Control) 来实现不同的事务隔离级别。这些机制共同作用,确保事务在并发环境下的数据一致性和隔离性。
1. 锁机制(Locking)
锁机制是 MySQL 实现事务隔离的基础,用于控制对数据的并发访问。MySQL 中的锁主要分为两类:
(1)共享锁(Shared Lock,S Lock)
- 也称为读锁。
- 允许多个事务同时读取同一数据。
- 阻止其他事务获取排他锁(即阻止写入)。
(2)排他锁(Exclusive Lock,X Lock)
- 也称为写锁。
- 只允许一个事务写入数据。
- 阻止其他事务获取共享锁或排他锁(即阻止读取和写入)。
(3)锁的粒度
MySQL 支持不同粒度的锁:
- 表级锁:锁定整张表,粒度最大,并发性能最差。
- 行级锁:锁定单行数据,粒度最小,并发性能最好。
- 间隙锁(Gap Lock):锁定一个范围,用于防止幻读。
2. 多版本并发控制(MVCC)
MVCC 是 MySQL 实现非阻塞读操作的核心机制,主要用于 读已提交(Read Committed) 和 可重复读(Repeatable Read) 隔离级别。
(1)MVCC 的原理
- 每个事务在启动时会被分配一个唯一的事务 ID(Transaction ID)。
- 每条记录会保存多个版本,每个版本包含:
- 创建该版本的事务 ID(
trx_id
)。 - 删除该版本的事务 ID(
delete_trx_id
)。 - 实际的数据内容。
- 创建该版本的事务 ID(
- 事务只能看到符合以下条件的记录版本:
- 创建该版本的事务 ID 小于或等于当前事务 ID。
- 删除该版本的事务 ID 大于当前事务 ID,或者未标记为删除。
(2)MVCC 的优点
- 读操作不需要加锁,提高了并发性能。
- 写操作不会阻塞读操作。
(3)MVCC 的实现
- Undo Log:用于存储旧版本的数据,支持事务回滚和 MVCC。
- Read View:每个事务在启动时会创建一个 Read View,用于判断哪些数据版本对当前事务可见。
3. 不同隔离级别的实现机制
(1)读未提交(Read Uncommitted)
- 实现机制:直接读取最新数据,不加锁。
- 问题:可能读取到未提交的数据(脏读)。
(2)读已提交(Read Committed)
- 实现机制:
- 使用 MVCC,每次读取时生成一个新的 Read View。
- 只读取已提交的数据版本。
- 问题:可能发生不可重复读和幻读。
(3)可重复读(Repeatable Read)
- 实现机制:
- 使用 MVCC,事务启动时生成一个 Read View,并在整个事务期间使用该 Read View。
- 通过间隙锁(Gap Lock)防止幻读。
- 问题:可能发生幻读(但在 MySQL 中通过间隙锁基本避免了幻读)。
(4)串行化(Serializable)
- 实现机制:
- 使用严格的锁机制,所有操作串行执行。
- 读操作加共享锁,写操作加排他锁。
- 问题:性能最差,但完全避免了并发问题。
4. 间隙锁(Gap Lock)
间隙锁是 MySQL 在可重复读隔离级别下防止幻读的重要机制。
(1)间隙锁的作用
- 锁定一个范围,而不是具体的某一行。
- 防止其他事务在范围内插入新数据。
(2)示例
1 | -- 事务 A |
5. Undo Log 和 Redo Log
- Undo Log:
- 用于存储旧版本的数据,支持事务回滚和 MVCC。
- 在事务提交后,Undo Log 可以被清理。
- Redo Log:
- 用于记录事务对数据的修改,确保事务的持久性。
- 在事务提交时,Redo Log 会被写入磁盘。
6. 总结
MySQL 通过锁机制和 MVCC 实现了不同的事务隔离级别:
- 锁机制:用于控制并发访问,确保数据的一致性。
- MVCC:用于实现非阻塞读操作,提高并发性能。
- 间隙锁:用于防止幻读。
不同隔离级别的实现方式如下:
- 读未提交:不加锁,直接读取最新数据。
- 读已提交:使用 MVCC,每次读取生成新的 Read View。
- 可重复读:使用 MVCC 和间隙锁,事务启动时生成 Read View。
- 串行化:使用严格的锁机制,所有操作串行执行。
理解这些底层机制有助于更好地优化 MySQL 的性能和数据一致性。
mvcc
MVCC(Multi-Version Concurrency Control,多版本并发控制) 是一种用于实现数据库并发控制的机制,主要用于提高读操作的并发性能,同时保证事务的隔离性。MVCC 的核心思想是为每条记录维护多个版本,使得读操作可以访问历史版本的数据,而不会被写操作阻塞。
1. MVCC 的核心概念
(1)版本链
- 每条记录可能有多个版本,每个版本包含:
- 创建该版本的事务 ID(
trx_id
)。 - 删除该版本的事务 ID(
delete_trx_id
)。 - 实际的数据内容。
- 创建该版本的事务 ID(
- 版本之间通过指针链接,形成版本链。
(2)事务 ID
- 每个事务在启动时会被分配一个唯一的事务 ID(Transaction ID)。
- 事务 ID 用于标识数据的创建和删除时间。
(3)Read View
- 每个事务在启动时会创建一个 Read View,用于判断哪些数据版本对当前事务可见。
- Read View 包含以下信息:
- 当前活跃事务的 ID 列表。
- 最小活跃事务 ID(
up_limit_id
)。 - 下一个事务 ID(
low_limit_id
)。
2. MVCC 的工作原理
(1)数据可见性判断
- 对于每条记录的每个版本,MVCC 通过以下规则判断是否对当前事务可见:
- 如果版本的
trx_id
小于up_limit_id
,则该版本对当前事务可见。 - 如果版本的
trx_id
大于或等于low_limit_id
,则该版本对当前事务不可见。 - 如果版本的
trx_id
在up_limit_id
和low_limit_id
之间,且不在活跃事务列表中,则该版本对当前事务可见。
- 如果版本的
(2)读操作
- 读操作不需要加锁,直接访问符合可见性规则的版本。
- 如果当前版本不可见,则沿着版本链查找更早的版本。
(3)写操作
- 写操作会创建新版本的数据,并将旧版本标记为删除。
- 新版本的
trx_id
设置为当前事务 ID。
3. MVCC 的优点
- 非阻塞读:读操作不会被写操作阻塞,提高了并发性能。
- 一致性视图:每个事务可以看到一致的数据视图,避免了脏读和不可重复读。
- 历史数据访问:可以访问历史版本的数据,支持时间点查询。
4. MVCC 的实现
(1)Undo Log
- Undo Log 用于存储旧版本的数据,支持事务回滚和 MVCC。
- 每个事务的修改操作会生成对应的 Undo Log。
- Undo Log 通过指针链接,形成版本链。
(2)Read View
- 每个事务在启动时会创建一个 Read View,用于判断数据版本的可见性。
- Read View 包含当前活跃事务的 ID 列表和事务 ID 范围。
(3)版本链
- 每条记录的版本链通过 Undo Log 实现。
- 版本链的头部是最新版本,尾部是最旧版本。
5. MVCC 的示例
(1)数据插入
1 | -- 事务 A |
- 插入一条新记录,
trx_id
设置为事务 A 的 ID。
(2)数据更新
1 | -- 事务 B |
- 创建新版本的数据,
trx_id
设置为事务 B 的 ID。 - 旧版本的数据被标记为删除,
delete_trx_id
设置为事务 B 的 ID。
(3)数据读取
1 | -- 事务 C |
- 事务 C 的 Read View 包含当前活跃事务的 ID 列表和事务 ID 范围。
- 根据可见性规则,事务 C 可以看到事务 B 提交的版本。
6. MVCC 的局限性
- 存储开销:需要维护多个版本的数据,增加了存储开销。
- 清理机制:需要定期清理不再需要的旧版本数据(如通过 Purge 线程)。
- 幻读问题:在可重复读隔离级别下,MVCC 无法完全避免幻读,需要结合间隙锁。
7. MVCC 与隔离级别的关系
- 读未提交(Read Uncommitted):不使用 MVCC,直接读取最新数据。
- 读已提交(Read Committed):使用 MVCC,每次读取生成新的 Read View。
- 可重复读(Repeatable Read):使用 MVCC,事务启动时生成 Read View。
- 串行化(Serializable):不使用 MVCC,使用严格的锁机制。
总结
MVCC 是 MySQL 实现高并发和事务隔离的核心机制,通过维护多个版本的数据,实现了非阻塞读操作和一致性视图。理解 MVCC 的工作原理有助于更好地优化数据库性能和设计事务逻辑。
innoDB索引结构
InnoDB 是 MySQL 默认的存储引擎,其索引结构基于 B+ 树。B+ 树是一种平衡多路搜索树,非常适合用于磁盘存储和数据库索引。以下是 InnoDB 索引结构的详细介绍:
1. B+ 树的特点
B+ 树是 B 树的变种,具有以下特点:
- 平衡树:所有叶子节点位于同一层,查询效率稳定。
- 多路搜索:每个节点可以包含多个键和指针,减少树的高度。
- 叶子节点链表:所有叶子节点通过指针连接,支持范围查询。
2. InnoDB 索引的类型
InnoDB 支持两种类型的索引:
- 聚簇索引(Clustered Index)
- 二级索引(Secondary Index)
(1)聚簇索引
- 定义:聚簇索引是表的主键索引,数据行直接存储在叶子节点中。
- 特点:
- 每个表只能有一个聚簇索引。
- 如果没有显式定义主键,InnoDB 会选择一个唯一的非空索引作为聚簇索引;如果没有这样的索引,InnoDB 会隐式创建一个隐藏的主键。
- 结构:
- 非叶子节点存储键值和指向子节点的指针。
- 叶子节点存储完整的行数据。
(2)二级索引
- 定义:二级索引是非主键索引,叶子节点存储索引列的值和主键值。
- 特点:
- 每个表可以有多个二级索引。
- 查询时需要回表(通过主键值查找聚簇索引中的完整数据)。
- 结构:
- 非叶子节点存储键值和指向子节点的指针。
- 叶子节点存储索引列的值和主键值。
3. InnoDB 索引的结构
(1)B+ 树的节点结构
- 非叶子节点:
- 存储键值和指向子节点的指针。
- 键值用于路由查询,指针用于定位子节点。
- 叶子节点:
- 聚簇索引:存储完整的行数据。
- 二级索引:存储索引列的值和主键值。
(2)叶子节点的链表
- 所有叶子节点通过指针连接,形成一个双向链表。
- 支持高效的范围查询(如
BETWEEN
、>
、<
等)。
4. InnoDB 索引的查询过程
(1)聚簇索引查询
- 从根节点开始,根据键值逐层查找,直到叶子节点。
- 在叶子节点中找到对应的行数据。
(2)二级索引查询
- 从根节点开始,根据键值逐层查找,直到叶子节点。
- 在叶子节点中找到索引列的值和主键值。
- 通过主键值回表查询聚簇索引,获取完整的行数据。
5. InnoDB 索引的优势
- 高效查询:B+ 树的高度较低,查询效率高。
- 范围查询:叶子节点的链表支持高效的范围查询。
- 数据有序:聚簇索引的叶子节点按主键顺序存储,支持高效的范围查询和排序。
6. InnoDB 索引的优化
(1)覆盖索引
- 如果查询的列都在索引中,可以直接从索引中获取数据,无需回表。
- 示例:
1
2CREATE INDEX idx_name ON users (name);
SELECT name FROM users WHERE name = 'Alice';
(2)索引选择性
- 选择性高的列(如唯一索引)更适合作为索引。
- 示例:
1
CREATE UNIQUE INDEX idx_email ON users (email);
(3)联合索引
- 将多个列组合成一个索引,支持多列查询。
- 示例:
1
2CREATE INDEX idx_name_age ON users (name, age);
SELECT * FROM users WHERE name = 'Alice' AND age = 25;
(4)前缀索引
- 对字符串列的前缀创建索引,减少索引大小。
- 示例:
1
CREATE INDEX idx_name_prefix ON users (name(10));
7. InnoDB 索引的局限性
- 写操作开销:插入、更新和删除操作需要维护索引,可能影响性能。
- 存储开销:索引需要额外的存储空间。
- 回表开销:二级索引查询需要回表,增加 I/O 操作。
8. 示例
(1)创建表
1 | CREATE TABLE users ( |
(2)创建索引
1 | CREATE INDEX idx_name ON users (name); |
(3)查询
1 | -- 使用聚簇索引 |
总结
InnoDB 的索引结构基于 B+ 树,具有高效查询、范围查询和数据有序的特点。通过合理设计和使用索引,可以显著提高数据库的查询性能。理解 InnoDB 索引的结构和工作原理,有助于优化数据库设计和查询性能。
为什么用B+树
B+ 树是数据库索引中最常用的数据结构之一,尤其是在关系型数据库(如 MySQL 的 InnoDB 存储引擎)中。选择 B+ 树作为索引结构的原因在于它在 查询效率、存储效率 和 范围查询 等方面具有显著优势。以下是 B+ 树被广泛使用的具体原因:
1. B+ 树的特点
B+ 树是一种平衡多路搜索树,具有以下特点:
- 平衡树:所有叶子节点位于同一层,查询效率稳定。
- 多路搜索:每个节点可以包含多个键和指针,减少树的高度。
- 叶子节点链表:所有叶子节点通过指针连接,支持高效的范围查询。
2. B+ 树的优势
(1)高效的查询性能
- 树的高度低:由于 B+ 树是多路搜索树,每个节点可以存储多个键和指针,因此树的高度较低。例如,一个 3 层的 B+ 树可以存储数百万条记录。
- 查询复杂度低:查询时间复杂度为 **O(log n)**,其中 n 是记录数。
(2)适合磁盘存储
- 减少磁盘 I/O:B+ 树的节点大小通常与磁盘块大小匹配(如 4KB),每次读取一个节点只需一次磁盘 I/O。
- 顺序访问:B+ 树的叶子节点通过指针连接,支持顺序访问,适合范围查询。
(3)支持范围查询
- 叶子节点链表:B+ 树的所有叶子节点通过指针连接,形成一个有序链表,支持高效的范围查询(如
BETWEEN
、>
、<
等)。 - 示例:
1
SELECT * FROM users WHERE age BETWEEN 20 AND 30;
(4)数据有序
- 叶子节点有序:B+ 树的叶子节点按键值顺序存储,支持高效的范围查询和排序。
- 示例:
1
SELECT * FROM users ORDER BY age;
(5)适合大规模数据
- 动态平衡:B+ 树在插入和删除操作时能够自动保持平衡,适合频繁更新的场景。
- 存储效率高:B+ 树的非叶子节点只存储键值和指针,不存储数据,因此可以存储更多的键值,减少树的高度。
3. B+ 树与其他数据结构的对比
(1)B+ 树 vs 二叉搜索树(BST)
- BST 的问题:
- 树的高度较高,查询复杂度为 O(log n),但在最坏情况下可能退化为链表,查询复杂度为 O(n)。
- 不适合磁盘存储,因为每次访问一个节点可能需要一次磁盘 I/O。
- B+ 树的优势:
- 树的高度低,查询效率稳定。
- 适合磁盘存储,减少磁盘 I/O。
(2)B+ 树 vs B 树
- B 树的特点:
- 非叶子节点也存储数据。
- B+ 树的优势:
- 非叶子节点只存储键值和指针,可以存储更多的键值,减少树的高度。
- 叶子节点通过指针连接,支持高效的范围查询。
(3)B+ 树 vs 哈希表
- 哈希表的特点:
- 查询复杂度为 O(1),但不支持范围查询。
- 哈希冲突可能影响性能。
- B+ 树的优势:
- 支持范围查询和排序。
- 查询效率稳定,适合大规模数据。
4. B+ 树在数据库中的应用
(1)聚簇索引
- 在 InnoDB 中,聚簇索引的叶子节点存储完整的行数据。
- 查询时通过 B+ 树快速定位数据。
(2)二级索引
- 二级索引的叶子节点存储索引列的值和主键值。
- 查询时通过 B+ 树定位索引值,然后回表查询聚簇索引。
(3)范围查询
- B+ 树的叶子节点链表支持高效的范围查询。
- 示例:
1
SELECT * FROM users WHERE age > 20 AND age < 30;
5. B+ 树的局限性
- 写操作开销:插入、更新和删除操作需要维护 B+ 树的平衡,可能影响性能。
- 存储开销:B+ 树需要额外的存储空间来存储键值和指针。
6. 总结
B+ 树被广泛用于数据库索引的原因在于:
- 高效的查询性能:树的高度低,查询复杂度为 O(log n)。
- 适合磁盘存储:减少磁盘 I/O,支持顺序访问。
- 支持范围查询:叶子节点链表支持高效的范围查询。
- 数据有序:叶子节点按键值顺序存储,支持排序和范围查询。
这些特性使得 B+ 树成为数据库索引的理想选择,尤其是在需要高效查询和大规模数据存储的场景中。
缓存三兄弟
缓存是提高系统性能的重要手段,而 缓存三兄弟 通常指的是以下三种常见的缓存问题:
- 缓存穿透
- 缓存击穿
- 缓存雪崩
这些问题在高并发场景下可能会导致缓存失效,进而对数据库造成巨大压力,甚至引发系统崩溃。以下是它们的详细说明及解决方案。
1. 缓存穿透
(1)问题描述
缓存穿透是指 查询一个不存在的数据,导致请求直接绕过缓存,每次都访问数据库。例如:
- 查询一个不存在的用户 ID。
- 查询一个非法的参数(如负数或超长字符串)。
(2)危害
- 大量无效请求直接访问数据库,导致数据库压力过大。
- 可能被恶意攻击,利用非法参数耗尽数据库资源。
(3)解决方案
- 缓存空值:
- 如果查询结果为空,仍然将空值缓存到 Redis 中,并设置较短的过期时间。
- 示例:
1
2
3
4
5
6
7
8
9String value = redis.get(key);
if (value == null) {
value = db.get(key);
if (value == null) {
redis.set(key, "NULL", 60); // 缓存空值,过期时间 60 秒
} else {
redis.set(key, value);
}
}
- 布隆过滤器(Bloom Filter):
- 在缓存层之前增加布隆过滤器,用于快速判断数据是否存在。
- 如果布隆过滤器判断数据不存在,则直接返回,避免访问数据库。
2. 缓存击穿
(1)问题描述
缓存击穿是指 某个热点数据在缓存中过期,同时有大量并发请求访问该数据,导致所有请求直接访问数据库。
(2)危害
- 大量请求同时访问数据库,导致数据库压力骤增。
- 可能引发系统性能下降甚至崩溃。
(3)解决方案
- 加锁(分布式锁):
- 当缓存失效时,使用分布式锁(如 Redis 的
SETNX
)控制只有一个请求访问数据库,其他请求等待。 - 示例:
1
2
3
4
5
6
7
8
9
10
11String value = redis.get(key);
if (value == null) {
if (redis.setnx(lockKey, 1)) { // 获取分布式锁
value = db.get(key);
redis.set(key, value);
redis.del(lockKey); // 释放锁
} else {
Thread.sleep(100); // 等待重试
return getFromCache(key); // 重试
}
}
- 当缓存失效时,使用分布式锁(如 Redis 的
- 永不过期:
- 对热点数据设置永不过期,通过后台任务定期更新缓存。
- 示例:
1
redis.set(key, value); // 不设置过期时间
3. 缓存雪崩
(1)问题描述
缓存雪崩是指 大量缓存数据在同一时间过期,导致所有请求直接访问数据库。
(2)危害
- 数据库瞬间承受巨大压力,可能导致数据库崩溃。
- 系统性能急剧下降,甚至无法提供服务。
(3)解决方案
设置随机过期时间:
- 对缓存数据的过期时间增加随机值,避免大量数据同时过期。
- 示例:
1
2int expireTime = 3600 + new Random().nextInt(300); // 过期时间在 3600~3900 秒之间
redis.set(key, value, expireTime);
多级缓存:
- 使用多级缓存(如本地缓存 + Redis),即使 Redis 缓存失效,本地缓存仍可提供服务。
热点数据永不过期:
- 对热点数据设置永不过期,通过后台任务定期更新缓存。
4. 缓存三兄弟的对比
问题 | 描述 | 解决方案 |
---|---|---|
缓存穿透 | 查询不存在的数据,绕过缓存 | 缓存空值、布隆过滤器 |
缓存击穿 | 热点数据过期,大量请求访问数据库 | 加锁、永不过期 |
缓存雪崩 | 大量缓存同时过期,请求压垮数据库 | 设置随机过期时间、多级缓存、热点数据永不过期 |
5. 总结
缓存三兄弟(缓存穿透、缓存击穿、缓存雪崩)是高并发场景下常见的缓存问题,可能导致数据库压力过大甚至系统崩溃。通过以下措施可以有效解决这些问题:
- 缓存空值 和 布隆过滤器 解决缓存穿透。
- 加锁 和 永不过期 解决缓存击穿。
- 设置随机过期时间 和 多级缓存 解决缓存雪崩。
理解这些问题及其解决方案,有助于设计高性能、高可用的缓存系统。
Redisson的分布式锁的实现和传统意义上的lua+setnx有什么区别
分布式锁是分布式系统中用于控制多个节点对共享资源访问的机制。Redisson 的分布式锁 和 传统 Lua + SETNX 实现 都是基于 Redis 的分布式锁解决方案,但它们在实现方式、功能特性和使用场景上存在显著差异。以下是两者的详细对比:
1. 传统 Lua + SETNX 实现
(1)实现原理
- SETNX(SET if Not eXists):
- 使用 Redis 的
SETNX
命令尝试设置一个键值对,如果键不存在则设置成功,返回 1;否则返回 0。
- 使用 Redis 的
- Lua 脚本:
- 使用 Lua 脚本保证原子性,避免多个命令之间的竞态条件。
(2)实现步骤
- 使用
SETNX
尝试获取锁:1
SETNX lock_key unique_value
- 如果获取成功,设置锁的过期时间:
1
EXPIRE lock_key 30
- 使用 Lua 脚本保证
SETNX
和EXPIRE
的原子性:1
2
3
4
5if redis.call('SETNX', KEYS[1], ARGV[1]) == 1 then
return redis.call('EXPIRE', KEYS[1], ARGV[2])
else
return 0
end
(3)优点
- 实现简单,直接基于 Redis 原生命令。
- 适用于简单的分布式锁场景。
(4)缺点
- 锁续期问题:如果业务执行时间超过锁的过期时间,可能导致锁失效。
- 锁释放问题:需要确保锁的释放是原子的,避免误删其他线程的锁。
- 不可重入:不支持同一线程多次获取锁。
2. Redisson 的分布式锁
(1)实现原理
Redisson 是一个基于 Redis 的 Java 客户端,提供了丰富的分布式对象和服务,包括分布式锁。Redisson 的分布式锁基于 Redis 的 SETNX
和 Lua 脚本,但在此基础上增加了更多高级功能。
(2)核心特性
- 可重入锁:支持同一线程多次获取锁。
- 锁续期(Watchdog):
- Redisson 通过后台线程(Watchdog)定期检查锁的状态,并在业务未执行完时自动续期。
- 公平锁:支持公平锁机制,按请求顺序获取锁。
- 锁释放:确保锁的释放是原子的,避免误删其他线程的锁。
(3)实现步骤
- 获取锁:
1
2RLock lock = redissonClient.getLock("lock_key");
lock.lock(); // 阻塞直到获取锁 - 释放锁:
1
lock.unlock();
(4)优点
- 功能丰富:支持可重入锁、公平锁、锁续期等高级功能。
- 高可靠性:通过 Watchdog 机制解决锁续期问题。
- 易用性:提供简单的 API,无需手动编写 Lua 脚本。
(5)缺点
- 依赖 Redisson:需要引入 Redisson 客户端,增加了系统复杂性。
- 性能开销:Watchdog 机制和公平锁可能带来额外的性能开销。
3. Redisson 分布式锁 vs 传统 Lua + SETNX
特性 | Redisson 分布式锁 | 传统 Lua + SETNX |
---|---|---|
实现复杂度 | 高(依赖 Redisson 客户端) | 低(直接使用 Redis 命令) |
锁续期 | 支持(Watchdog 机制) | 不支持 |
可重入 | 支持 | 不支持 |
公平锁 | 支持 | 不支持 |
锁释放 | 原子操作,避免误删 | 需手动实现原子性 |
适用场景 | 复杂分布式锁场景 | 简单分布式锁场景 |
性能开销 | 较高(Watchdog 机制) | 较低 |
4. 如何选择?
(1)选择 Redisson 分布式锁的场景
- 需要可重入锁、公平锁等高级功能。
- 业务执行时间不确定,需要锁续期机制。
- 希望简化分布式锁的实现,减少手动编写 Lua 脚本的工作量。
(2)选择传统 Lua + SETNX 的场景
- 分布式锁需求简单,不需要高级功能。
- 业务执行时间较短且固定,锁续期问题不突出。
- 希望减少系统依赖,避免引入 Redisson 客户端。
5. 总结
- Redisson 分布式锁:功能丰富、可靠性高,适合复杂的分布式锁场景,但依赖 Redisson 客户端并有一定的性能开销。
- 传统 Lua + SETNX:实现简单、性能较高,适合简单的分布式锁场景,但功能有限且需要手动处理锁续期和释放问题。
根据具体需求选择合适的分布式锁实现方式,可以有效提高系统的可靠性和性能。
Redisson看门狗机制
Redisson 的 看门狗机制(Watchdog Mechanism) 是其分布式锁实现中的一个核心特性,用于解决分布式锁的 锁续期问题。在高并发场景下,如果业务执行时间超过锁的过期时间,可能导致锁失效,进而引发数据不一致或其他问题。看门狗机制通过定期检查锁的状态并自动续期,确保业务执行期间锁不会意外失效。
1. 看门狗机制的作用
(1)锁续期问题
- 在分布式锁中,通常会为锁设置一个过期时间(如 30 秒),以避免锁被长时间占用。
- 如果业务执行时间超过锁的过期时间,锁会自动释放,其他线程可能获取到锁,导致数据不一致。
(2)看门狗机制的作用
- 看门狗机制通过后台线程定期检查锁的状态,并在业务未执行完时自动续期。
- 确保业务执行期间锁不会失效。
2. 看门狗机制的工作原理
(1)锁的获取
- 当线程获取锁时,Redisson 会启动一个看门狗线程。
- 锁的默认过期时间为 30 秒,但看门狗线程会在锁过期前自动续期。
(2)锁的续期
- 看门狗线程每隔一段时间(默认是锁过期时间的 1/3,即 10 秒)检查锁的状态。
- 如果锁仍然被当前线程持有,则自动续期(将锁的过期时间重置为 30 秒)。
(3)锁的释放
- 当线程释放锁时,看门狗线程会停止续期操作。
- 锁的过期时间不再重置,最终自动释放。
3. 看门狗机制的实现
(1)锁的获取
1 | RLock lock = redissonClient.getLock("lock_key"); |
(2)锁的续期
- 看门狗线程通过 Lua 脚本实现锁的续期:
1
2
3
4
5if redis.call('hexists', KEYS[1], ARGV[2]) == 1 then
redis.call('pexpire', KEYS[1], ARGV[1]);
return 1;
end;
return 0;KEYS[1]
:锁的键名。ARGV[1]
:锁的过期时间。ARGV[2]
:线程标识。
(3)锁的释放
1 | lock.unlock(); // 释放锁,停止看门狗线程 |
4. 看门狗机制的优点
(1)避免锁失效
- 通过自动续期,确保业务执行期间锁不会失效。
(2)简化开发
- 开发者无需手动处理锁的续期问题,Redisson 自动完成。
(3)提高可靠性
- 避免因锁失效导致的数据不一致或其他问题。
5. 看门狗机制的配置
(1)锁的默认过期时间
- 默认过期时间为 30 秒,可以通过配置修改:
1
2
3Config config = new Config();
config.setLockWatchdogTimeout(60000L); // 设置为 60 秒
RedissonClient redissonClient = Redisson.create(config);
(2)看门狗线程的检查间隔
- 默认检查间隔为锁过期时间的 1/3(即 10 秒),无法直接配置。
6. 看门狗机制的局限性
(1)性能开销
- 看门狗线程需要定期执行 Lua 脚本,可能带来一定的性能开销。
(2)线程安全问题
- 如果业务代码中未正确释放锁,可能导致看门狗线程一直运行,浪费资源。
(3)锁的粒度
- 看门狗机制适用于长时间持有的锁,对于短时间锁可能增加不必要的开销。
7. 示例
(1)获取锁并执行业务
1 | RLock lock = redissonClient.getLock("lock_key"); |
(2)自定义锁的过期时间
1 | lock.lock(60, TimeUnit.SECONDS); // 获取锁,设置过期时间为 60 秒 |
8. 总结
Redisson 的看门狗机制通过后台线程定期检查锁的状态并自动续期,解决了分布式锁的锁续期问题。它的主要优点包括:
- 避免锁失效,确保业务执行期间锁的持有。
- 简化开发,无需手动处理锁的续期。
- 提高系统的可靠性和一致性。
然而,看门狗机制也可能带来一定的性能开销,因此在使用时需要根据业务场景合理配置锁的过期时间。
Redis的持久化方式有哪两种
Redis 提供了两种主要的持久化方式,用于将内存中的数据保存到磁盘,以防止数据丢失。这两种持久化方式分别是:
1. RDB(Redis Database Backup)
(1)工作原理
- RDB 是 Redis 的 快照持久化 方式。
- 它会将当前内存中的数据生成一个快照(Snapshot),并保存到磁盘上的二进制文件(默认文件名为
dump.rdb
)。
(2)触发机制
- 手动触发:
- 使用
SAVE
命令:阻塞 Redis 主线程,直到快照生成完成。 - 使用
BGSAVE
命令:在后台异步生成快照,不会阻塞主线程。
- 使用
- 自动触发:
- 在配置文件中设置自动保存规则,例如:
1
2
3save 900 1 # 900 秒内至少有 1 个键被修改
save 300 10 # 300 秒内至少有 10 个键被修改
save 60 10000 # 60 秒内至少有 10000 个键被修改
- 在配置文件中设置自动保存规则,例如:
(3)优点
- 性能高:RDB 文件是二进制格式,体积小,加载速度快。
- 适合备份:可以定期生成 RDB 文件,用于数据备份和恢复。
- 恢复速度快:重启 Redis 时,加载 RDB 文件的速度比 AOF 快。
(4)缺点
- 数据丢失风险:如果 Redis 崩溃,最后一次快照之后的数据会丢失。
- 不适合实时持久化:RDB 是定时生成快照,无法做到实时持久化。
2. AOF(Append-Only File)
(1)工作原理
- AOF 是 Redis 的 日志持久化 方式。
- 它会将每个写操作(如
SET
、DEL
等)以追加的方式记录到 AOF 文件中。
(2)触发机制
- 实时记录:每次写操作都会追加到 AOF 文件中。
- 文件重写:
- AOF 文件会不断增长,Redis 提供了
BGREWRITEAOF
命令来重写 AOF 文件,去除冗余命令,缩小文件体积。 - 自动重写规则可以在配置文件中设置:
1
2auto-aof-rewrite-percentage 100 # AOF 文件大小超过上次重写后的 100% 时触发重写
auto-aof-rewrite-min-size 64mb # AOF 文件大小至少为 64MB 时触发重写
- AOF 文件会不断增长,Redis 提供了
(3)同步策略
- appendfsync always:每次写操作都同步到磁盘,数据安全性最高,但性能最差。
- appendfsync everysec:每秒同步一次,平衡性能和数据安全性(默认配置)。
- appendfsync no:由操作系统决定何时同步,性能最好,但数据安全性最低。
(4)优点
- 数据安全性高:AOF 文件记录了所有写操作,数据丢失风险低。
- 实时持久化:每次写操作都会记录,适合对数据安全性要求高的场景。
- 可读性强:AOF 文件是文本格式,可以手动查看和修改。
(5)缺点
- 文件体积大:AOF 文件记录了所有写操作,文件体积通常比 RDB 大。
- 恢复速度慢:重启 Redis 时,需要重新执行 AOF 文件中的所有命令,恢复速度比 RDB 慢。
- 性能开销:频繁的写操作会增加磁盘 I/O 压力。
3. RDB 和 AOF 的对比
特性 | RDB | AOF |
---|---|---|
持久化方式 | 快照 | 日志 |
文件格式 | 二进制 | 文本 |
数据安全性 | 可能丢失最后一次快照后的数据 | 数据丢失风险低 |
恢复速度 | 快 | 慢 |
文件体积 | 小 | 大 |
性能开销 | 低 | 高 |
适用场景 | 数据备份、快速恢复 | 高数据安全性、实时持久化 |
4. RDB 和 AOF 的结合使用
Redis 允许同时启用 RDB 和 AOF 持久化方式,以兼顾数据安全性和恢复速度:
- RDB:用于定期备份和快速恢复。
- AOF:用于实时记录写操作,确保数据安全性。
在同时启用 RDB 和 AOF 时,Redis 重启时会优先加载 AOF 文件来恢复数据,因为 AOF 文件通常包含更完整的数据。
5. 配置示例
(1)启用 RDB
1 | save 900 1 |
(2)启用 AOF
1 | appendonly yes |
6. 总结
- RDB:适合数据备份和快速恢复,但可能存在数据丢失风险。
- AOF:适合高数据安全性场景,但文件体积大且恢复速度慢。
- 结合使用:可以同时启用 RDB 和 AOF,兼顾数据安全性和恢复速度。
根据业务需求选择合适的持久化方式,可以有效提高 Redis 的可靠性和性能。
HTTPS的加密过程
HTTPS(HyperText Transfer Protocol Secure)是在 HTTP 协议基础上加入了 SSL/TLS 加密层,用于保护数据传输的安全性。HTTPS 的加密过程主要分为两个阶段:
- SSL/TLS 握手:客户端和服务器协商加密参数并建立安全连接。
- 加密通信:使用协商出的对称密钥加密数据传输。
以下是 HTTPS 加密过程的详细说明:
1. SSL/TLS 握手过程
SSL/TLS 握手是 HTTPS 加密的核心步骤,目的是在客户端和服务器之间建立安全连接。握手过程主要包括以下步骤:
(1)客户端发起请求(Client Hello)
- 客户端向服务器发送
Client Hello
消息,包含以下信息:- 支持的 SSL/TLS 版本(如 TLS 1.2、TLS 1.3)。
- 客户端生成的随机数(Client Random),用于后续密钥生成。
- 支持的加密套件(Cipher Suites),如
TLS_ECDHE_RSA_WITH_AES_128_GCM_SHA256
。 - 支持的压缩方法(可选)。
(2)服务器响应(Server Hello)
- 服务器向客户端发送
Server Hello
消息,包含以下信息:- 选择的 SSL/TLS 版本。
- 服务器生成的随机数(Server Random),用于后续密钥生成。
- 选择的加密套件。
- 服务器的证书(包含公钥)。
- 如果需要客户端证书,服务器会发送
Certificate Request
。
(3)服务器证书验证
- 客户端验证服务器的证书:
- 检查证书是否由受信任的证书颁发机构(CA)签发。
- 检查证书是否在有效期内。
- 检查证书中的域名是否与访问的域名一致。
- 如果验证失败,客户端会终止连接。
(4)密钥交换(Key Exchange)
- 客户端生成一个预主密钥(Pre-Master Secret),并使用服务器的公钥加密后发送给服务器(
Client Key Exchange
)。 - 服务器使用私钥解密预主密钥。
- 客户端和服务器根据预主密钥、Client Random 和 Server Random 生成主密钥(Master Secret),用于后续对称加密。
(5)完成握手(Finished)
- 客户端和服务器分别发送
Finished
消息,验证握手过程是否成功。 - 消息中包含之前所有握手消息的摘要,用于验证数据的完整性。
2. 加密通信
握手完成后,客户端和服务器使用协商出的对称密钥加密通信数据。具体过程如下:
(1)对称加密
- 客户端和服务器使用主密钥生成对称密钥(如 AES 密钥),用于加密和解密数据。
- 对称加密的优点是性能高,适合大量数据的加密。
(2)数据加密
- 客户端和服务器使用对称密钥加密传输的数据。
- 每次通信都会使用不同的密钥(通过密钥派生函数生成),确保数据的安全性。
(3)消息认证码(MAC)
- 为了防止数据被篡改,客户端和服务器会为每条消息生成一个消息认证码(MAC)。
- 接收方会验证 MAC,确保数据的完整性。
3. TLS 1.3 的改进
TLS 1.3 是 SSL/TLS 协议的最新版本,对握手过程进行了优化:
- 简化握手:TLS 1.3 的握手过程只需 1-RTT(Round-Trip Time),而 TLS 1.2 需要 2-RTT。
- 移除不安全的加密套件:TLS 1.3 移除了不安全的加密算法(如 RSA 密钥交换)。
- 0-RTT 模式:支持在第一次握手时发送加密数据,进一步降低延迟。
4. HTTPS 加密过程的图示
1 | 客户端 服务器 |
5. HTTPS 加密的关键点
- 证书:用于验证服务器的身份,由受信任的 CA 签发。
- 密钥交换:通过非对称加密(如 RSA、ECDHE)协商出对称密钥。
- 对称加密:使用对称密钥(如 AES)加密通信数据。
- 消息认证码(MAC):确保数据的完整性。
6. 总结
HTTPS 的加密过程通过 SSL/TLS 握手和对称加密确保数据传输的安全性:
- SSL/TLS 握手:客户端和服务器协商加密参数并建立安全连接。
- 加密通信:使用对称密钥加密数据传输。
理解 HTTPS 的加密过程有助于更好地调试和优化 Web 应用的安全性。
QUIC协议
QUIC(Quick UDP Internet Connections) 是一种基于 UDP 的传输协议,由 Google 开发,旨在提高网络通信的性能和安全性。QUIC 协议结合了 TCP、TLS 和 HTTP/2 的优点,并解决了它们的一些局限性。以下是 QUIC 协议的详细介绍:
1. QUIC 的核心特点
(1)基于 UDP
- QUIC 使用 UDP 作为底层传输协议,避免了 TCP 的队头阻塞(Head-of-Line Blocking)问题。
- UDP 的无连接特性使得 QUIC 可以更快地建立连接。
(2)内置加密
- QUIC 默认使用 TLS 1.3 加密,确保数据传输的安全性。
- 加密层与传输层紧密结合,减少了握手次数。
(3)多路复用
- QUIC 支持多路复用,允许多个流(Stream)在同一连接上并行传输。
- 每个流独立处理,避免了 TCP 的队头阻塞问题。
(4)连接迁移
- QUIC 使用连接 ID(Connection ID)而不是 IP 地址和端口来标识连接。
- 当网络切换(如从 Wi-Fi 切换到移动网络)时,连接可以无缝迁移,无需重新建立。
(5)0-RTT 握手
- QUIC 支持 0-RTT(零往返时间)握手,客户端可以在第一次握手时发送数据,进一步降低延迟。
(6)改进的拥塞控制
- QUIC 提供了更灵活的拥塞控制机制,适应不同的网络环境。
2. QUIC 的工作原理
(1)连接建立
- 客户端和服务器通过 QUIC 协议建立连接。
- QUIC 集成了 TLS 1.3,握手过程与加密层合并,减少了握手次数。
(2)数据传输
- 数据通过 QUIC 流(Stream)传输,每个流独立处理,避免了队头阻塞。
- QUIC 流支持可靠传输和有序交付。
(3)连接迁移
- 当客户端 IP 地址或端口发生变化时,QUIC 使用连接 ID 保持连接,无需重新握手。
3. QUIC 与 TCP 的对比
特性 | QUIC | TCP |
---|---|---|
传输协议 | 基于 UDP | 基于 TCP |
加密 | 内置 TLS 1.3 | 需要额外配置 TLS |
队头阻塞 | 无队头阻塞 | 存在队头阻塞 |
连接建立 | 0-RTT 或 1-RTT | 3 次握手 |
连接迁移 | 支持 | 不支持 |
多路复用 | 支持 | 需要 HTTP/2 |
拥塞控制 | 更灵活 | 传统拥塞控制 |
4. QUIC 的应用场景
(1)Web 应用
- QUIC 可以显著降低 Web 应用的延迟,提升用户体验。
- 适用于对延迟敏感的应用,如在线视频、实时通信等。
(2)移动网络
- QUIC 的连接迁移功能适合移动设备,在网络切换时保持连接。
(3)物联网(IoT)
- QUIC 的低延迟和高可靠性适合物联网设备之间的通信。
5. QUIC 的挑战
(1)部署复杂度
- QUIC 需要服务器和客户端支持,部署复杂度较高。
(2)网络设备兼容性
- 部分网络设备可能不支持 UDP 或 QUIC,导致连接失败。
(3)普及度
- QUIC 的普及率仍在增长中,部分应用和网络环境尚未完全支持。
6. QUIC 的实现
(1)Google QUIC
- Google 是 QUIC 协议的最早实现者,广泛应用于 Google 的服务(如 YouTube、Google Search)。
(2)IETF QUIC
- IETF(互联网工程任务组)对 QUIC 进行了标准化,形成了 RFC 9000。
- IETF QUIC 与 Google QUIC 有一些差异,但核心思想一致。
(3)开源实现
- Chromium:Google 的浏览器引擎,支持 QUIC。
- nginx:通过第三方模块支持 QUIC。
- Caddy:开源的 Web 服务器,原生支持 QUIC。
7. QUIC 的未来
- 逐步取代 TCP:随着 QUIC 协议的普及,未来可能会逐步取代 TCP 成为主流的传输协议。
- 更多应用场景:QUIC 的低延迟和高可靠性将推动其在更多领域的应用,如实时通信、物联网等。
8. 总结
QUIC 是一种基于 UDP 的现代传输协议,具有以下优势:
- 低延迟:通过 0-RTT 和快速握手减少延迟。
- 高可靠性:多路复用和连接迁移功能提高了通信的可靠性。
- 内置加密:默认使用 TLS 1.3,确保数据传输的安全性。
尽管 QUIC 的部署和普及仍面临一些挑战,但它无疑是未来网络通信的重要发展方向。
RPC协议,和HTTP有什么区别
RPC(Remote Procedure Call,远程过程调用) 和 HTTP(HyperText Transfer Protocol,超文本传输协议) 是两种常见的通信协议,用于实现分布式系统中的远程通信。它们在设计目标、使用场景和技术实现上有显著区别。以下是 RPC 和 HTTP 的详细对比:
1. RPC 协议
(1)定义
RPC 是一种协议,允许程序调用远程服务器上的函数或方法,就像调用本地函数一样。
(2)核心特点
- 透明性:调用远程方法像调用本地方法一样简单。
- 高效性:通常使用二进制协议(如 gRPC 的 Protocol Buffers),传输效率高。
- 强类型:支持强类型的数据序列化和反序列化。
- 面向服务:适合微服务架构中的服务间通信。
(3)常见实现
- gRPC:Google 开发的高性能 RPC 框架,基于 HTTP/2 和 Protocol Buffers。
- Thrift:Apache 开发的跨语言 RPC 框架。
- Dubbo:阿里巴巴开源的 Java RPC 框架。
(4)优点
- 性能高:使用二进制协议,传输效率高。
- 开发简单:调用远程方法像调用本地方法一样。
- 适合微服务:支持服务发现、负载均衡等特性。
(5)缺点
- 耦合性强:客户端和服务器需要共享接口定义,耦合性较高。
- 调试复杂:二进制协议不易调试,需要专门的工具。
2. HTTP 协议
(1)定义
HTTP 是一种应用层协议,用于在客户端和服务器之间传输超文本(如 HTML)。
(2)核心特点
- 无状态:每次请求都是独立的,服务器不保存客户端的状态。
- 文本协议:通常使用文本格式(如 JSON、XML)传输数据。
- 通用性:广泛支持,几乎所有编程语言和平台都支持 HTTP。
- 面向资源:适合 RESTful 架构,通过 URL 标识资源。
(3)常见实现
- RESTful API:基于 HTTP 的 RESTful 架构。
- GraphQL:基于 HTTP 的查询语言,用于 API 交互。
(4)优点
- 通用性强:几乎所有系统都支持 HTTP。
- 易于调试:文本协议易于阅读和调试。
- 无状态:适合分布式系统中的水平扩展。
(5)缺点
- 性能较低:文本协议传输效率较低,头部信息冗余。
- 无强类型:数据格式(如 JSON)无强类型支持,容易出错。
3. RPC 和 HTTP 的区别
特性 | RPC | HTTP |
---|---|---|
设计目标 | 远程方法调用 | 超文本传输 |
协议类型 | 通常为二进制协议(如 gRPC) | 文本协议(如 JSON、XML) |
性能 | 高(二进制协议,传输效率高) | 较低(文本协议,头部信息冗余) |
耦合性 | 强(客户端和服务器共享接口定义) | 弱(通过 URL 和 HTTP 方法交互) |
调试 | 复杂(二进制协议不易调试) | 简单(文本协议易于阅读和调试) |
适用场景 | 微服务架构中的服务间通信 | Web 应用、RESTful API |
典型实现 | gRPC、Thrift、Dubbo | RESTful API、GraphQL |
4. 如何选择 RPC 还是 HTTP?
(1)选择 RPC 的场景
- 高性能要求:需要高效的远程方法调用,如微服务架构中的服务间通信。
- 强类型需求:需要强类型的数据序列化和反序列化。
- 复杂交互:需要支持双向流、流控等高级特性。
(2)选择 HTTP 的场景
- 通用性要求:需要与多种系统或平台交互。
- 简单调试:需要易于调试和阅读的文本协议。
- 无状态交互:适合无状态的 RESTful 架构。
5. RPC 和 HTTP 的结合
在实际应用中,RPC 和 HTTP 可以结合使用。例如:
- gRPC over HTTP/2:gRPC 使用 HTTP/2 作为传输协议,结合了 RPC 的高效性和 HTTP 的通用性。
- RESTful API + RPC:在微服务架构中,外部接口使用 RESTful API,内部服务间通信使用 RPC。
6. 总结
- RPC:适合高性能、强类型的服务间通信,典型实现包括 gRPC、Thrift 和 Dubbo。
- HTTP:适合通用性强、易于调试的 Web 应用和 RESTful API。
根据具体需求选择合适的协议,可以有效提高系统的性能和可维护性。
HashMap是线程安全的吗?如果想让他安全要怎么做
HashMap 是 Java 中最常用的数据结构之一,但它 不是线程安全 的。在多线程环境下,直接使用 HashMap 可能导致数据不一致或其他并发问题。以下是 HashMap 的线程安全问题及解决方案的详细介绍:
1. HashMap 的线程安全问题
(1)问题描述
- 数据竞争:多个线程同时读写 HashMap 可能导致数据不一致。
- 死循环:在扩容时,多个线程同时操作可能导致链表成环,引发死循环(JDK 1.7 及之前版本的问题)。
(2)示例
1 | Map<String, String> map = new HashMap<>(); |
- 上述代码中,两个线程同时操作 HashMap,可能导致数据丢失或异常。
2. 如何使 HashMap 线程安全
(1)使用 Collections.synchronizedMap
Collections.synchronizedMap
可以将 HashMap 包装成一个线程安全的 Map。示例:
1
Map<String, String> map = Collections.synchronizedMap(new HashMap<>());
优点:
- 实现简单。
缺点:
- 性能较低,所有方法都加锁。
(2)使用 Hashtable
Hashtable
是线程安全的 Map 实现。示例:
1
Map<String, String> map = new Hashtable<>();
优点:
- 线程安全。
缺点:
- 性能较低,所有方法都加锁。
- 已过时,不推荐使用。
(3)使用 ConcurrentHashMap
ConcurrentHashMap
是 Java 提供的线程安全的 HashMap 实现。示例:
1
Map<String, String> map = new ConcurrentHashMap<>();
优点:
- 高并发性能,采用分段锁(JDK 1.7)或 CAS + synchronized(JDK 1.8)。
- 支持高并发读写。
缺点:
- 实现复杂。
(4)手动加锁
使用
synchronized
或ReentrantLock
手动控制 HashMap 的并发访问。示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18Map<String, String> map = new HashMap<>();
ReentrantLock lock = new ReentrantLock();
// 写操作
lock.lock();
try {
map.put("key", "value");
} finally {
lock.unlock();
}
// 读操作
lock.lock();
try {
String value = map.get("key");
} finally {
lock.unlock();
}优点:
- 灵活性高。
缺点:
- 实现复杂,容易出错。
3. ConcurrentHashMap 的实现原理
(1)JDK 1.7 的分段锁
- 将数据分成多个段(Segment),每个段独立加锁。
- 不同段的数据可以并发访问,提高并发性能。
(2)JDK 1.8 的 CAS + synchronized
- 使用 CAS(Compare-And-Swap)和
synchronized
实现细粒度锁。 - 每个桶(Bucket)独立加锁,进一步提高了并发性能。
4. 如何选择合适的线程安全 Map
实现方式 | 优点 | 缺点 | 适用场景 |
---|---|---|---|
Collections.synchronizedMap |
实现简单 | 性能较低,全表锁 | 低并发场景 |
Hashtable |
线程安全 | 性能较低,全表锁,已过时 | 不推荐使用 |
ConcurrentHashMap |
高并发性能,分段锁或 CAS + synchronized | 实现复杂 | 高并发场景 |
手动加锁 | 灵活性高 | 实现复杂,容易出错 | 需要精细控制的场景 |
5. 总结
- HashMap 不是线程安全的,直接在多线程环境下使用可能导致数据不一致或其他并发问题。
- 使 HashMap 线程安全的方案:
- 使用
Collections.synchronizedMap
。 - 使用
Hashtable
(不推荐)。 - 使用
ConcurrentHashMap
(推荐)。 - 手动加锁(复杂且容易出错)。
- 使用
在高并发场景下,推荐使用 ConcurrentHashMap
,因为它提供了更高的并发性能和更好的扩展性。
ConcurrentHashMap
ConcurrentHashMap 是 Java 中提供的线程安全的 HashMap 实现,适用于高并发场景。它通过分段锁(JDK 1.7)或 CAS + synchronized(JDK 1.8)来实现高效的并发访问。以下是 ConcurrentHashMap 的详细介绍:
1. ConcurrentHashMap 的特点
(1)线程安全
- ConcurrentHashMap 是线程安全的,支持高并发读写。
(2)高并发性能
- 通过分段锁(JDK 1.7)或 CAS + synchronized(JDK 1.8)实现细粒度锁,减少锁竞争。
(3)弱一致性
- ConcurrentHashMap 的迭代器是弱一致性的,不会抛出
ConcurrentModificationException
。
(4)不支持 null 键和 null 值
- ConcurrentHashMap 不允许键或值为 null。
2. ConcurrentHashMap 的实现原理
(1)JDK 1.7 的分段锁
- 将数据分成多个段(Segment),每个段独立加锁。
- 不同段的数据可以并发访问,提高并发性能。
- 每个段类似于一个小的 HashMap。
(2)JDK 1.8 的 CAS + synchronized
- 使用 CAS(Compare-And-Swap)和
synchronized
实现细粒度锁。 - 每个桶(Bucket)独立加锁,进一步提高了并发性能。
- 数据结构从分段锁改为数组 + 链表 + 红黑树。
3. ConcurrentHashMap 的核心方法
(1)put
- 插入键值对。
- 如果键已存在,则更新值。
- 示例:
1
2ConcurrentHashMap<String, String> map = new ConcurrentHashMap<>();
map.put("key", "value");
(2)get
- 根据键获取值。
- 示例:
1
String value = map.get("key");
(3)remove
- 根据键删除键值对。
- 示例:
1
map.remove("key");
(4)size
- 返回键值对的数量。
- 示例:
1
int size = map.size();
(5)forEach
- 遍历键值对。
- 示例:
1
map.forEach((k, v) -> System.out.println(k + "=" + v));
4. ConcurrentHashMap 的使用示例
(1)基本使用
1 | ConcurrentHashMap<String, String> map = new ConcurrentHashMap<>(); |
(2)并发读写
1 | ConcurrentHashMap<String, String> map = new ConcurrentHashMap<>(); |
5. ConcurrentHashMap 的注意事项
(1)弱一致性
- ConcurrentHashMap 的迭代器是弱一致性的,不会抛出
ConcurrentModificationException
。 - 迭代器反映的是创建迭代器时的数据状态,后续的修改可能不会反映到迭代器中。
(2)不支持 null 键和 null 值
- ConcurrentHashMap 不允许键或值为 null。
(3)性能优化
- 在高并发场景下,ConcurrentHashMap 的性能优于
Collections.synchronizedMap
和Hashtable
。
6. ConcurrentHashMap 的源码分析(JDK 1.8)
(1)数据结构
- 数组 + 链表 + 红黑树。
- 当链表长度超过阈值(默认 8)时,链表会转换为红黑树。
(2)CAS 操作
- 使用 CAS 实现无锁化的插入和更新操作。
- 示例:
1
2if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value)))
break;
(3)synchronized 锁
- 对每个桶(Bucket)使用
synchronized
锁,确保线程安全。 - 示例:
1
2
3synchronized (f) {
// 操作链表或红黑树
}
7. ConcurrentHashMap 的性能对比
实现方式 | 优点 | 缺点 | 适用场景 |
---|---|---|---|
Collections.synchronizedMap |
实现简单 | 性能较低,全表锁 | 低并发场景 |
Hashtable |
线程安全 | 性能较低,全表锁,已过时 | 不推荐使用 |
ConcurrentHashMap |
高并发性能,分段锁或 CAS + synchronized | 实现复杂 | 高并发场景 |
8. 总结
- ConcurrentHashMap 是线程安全的 HashMap 实现,适用于高并发场景。
- JDK 1.8 的实现:使用 CAS + synchronized 实现细粒度锁,性能更高。
- 优点:
- 高并发性能。
- 弱一致性迭代器。
- 缺点:
- 不支持 null 键和 null 值。
- 实现复杂。
在高并发场景下,推荐使用 ConcurrentHashMap
,因为它提供了更高的并发性能和更好的扩展性。
如果用HashMap,并发插入的话,会出现什么现象
在并发环境下直接使用 HashMap 进行插入操作可能会导致多种问题,包括数据不一致、死循环(JDK 1.7 及之前版本)以及程序崩溃等。以下是并发插入 HashMap 时可能出现的现象及其原因分析:
1. 数据不一致
(1)现象
- 多个线程同时插入数据时,可能会导致数据丢失或覆盖。
- 例如,两个线程同时插入不同的键值对,最终只有一个键值对被保存。
(2)原因
- HashMap 的
put
方法不是线程安全的。 - 多个线程同时操作同一个桶(Bucket)时,可能会导致数据覆盖。
(3)示例
1 | Map<String, String> map = new HashMap<>(); |
- 上述代码中,两个线程同时插入数据,可能导致部分数据丢失。
2. 死循环(JDK 1.7 及之前版本)
(1)现象
- 在 JDK 1.7 及之前版本中,多个线程同时扩容 HashMap 时,可能会导致链表成环,引发死循环。
- CPU 占用率飙升,程序无法继续执行。
(2)原因
- JDK 1.7 的 HashMap 在扩容时使用头插法,多个线程同时操作链表可能导致链表成环。
(3)示例
1 | Map<Integer, Integer> map = new HashMap<>(); |
- 上述代码在 JDK 1.7 中运行,可能导致死循环。
3. 程序崩溃
(1)现象
- 多个线程同时操作 HashMap 时,可能会导致程序崩溃或抛出异常(如
NullPointerException
或ConcurrentModificationException
)。
(2)原因
- HashMap 的内部数据结构(如数组、链表)在并发环境下可能被破坏。
- 例如,一个线程正在扩容,另一个线程尝试插入数据,可能导致数组越界或空指针。
4. JDK 1.8 的改进
在 JDK 1.8 中,HashMap 的实现进行了优化,解决了链表成环的问题:
- 尾插法:在扩容时使用尾插法,避免了链表成环。
- 红黑树:当链表长度超过阈值(默认 8)时,链表会转换为红黑树,提高了查询性能。
尽管 JDK 1.8 解决了死循环问题,但 HashMap 仍然不是线程安全的,并发插入仍可能导致数据不一致或程序崩溃。
5. 如何避免这些问题
(1)使用线程安全的 Map
- **
ConcurrentHashMap
**:推荐使用,支持高并发读写。 - **
Collections.synchronizedMap
**:将 HashMap 包装成线程安全的 Map。 - **
Hashtable
**:线程安全,但性能较低,已过时。
(2)手动加锁
- 使用
synchronized
或ReentrantLock
手动控制 HashMap 的并发访问。 - 示例:
1
2
3
4
5
6
7
8
9
10Map<String, String> map = new HashMap<>();
ReentrantLock lock = new ReentrantLock();
// 写操作
lock.lock();
try {
map.put("key", "value");
} finally {
lock.unlock();
}
(3)避免并发操作
- 确保 HashMap 只在单线程环境下使用。
6. 总结
在并发环境下直接使用 HashMap 进行插入操作可能导致以下问题:
- 数据不一致:多个线程同时插入数据,可能导致数据丢失或覆盖。
- 死循环(JDK 1.7 及之前版本):多个线程同时扩容可能导致链表成环。
- 程序崩溃:内部数据结构被破坏,导致程序崩溃或抛出异常。
为了避免这些问题,推荐使用线程安全的 Map(如 ConcurrentHashMap
)或手动加锁控制并发访问。