# 持久化

# 1.Ignite持久化

# 1.1.概述

Ignite的原生持久化是一个分布式的ACID和兼容SQL的磁盘存储,它可以透明地与Ignite的固化内存进行集成。Ignite的持久化是可选的,可以打开也可以关闭,当关闭时Ignite就会变成一个纯内存存储。

Ignite的原生持久化会在磁盘上存储一个数据的超集,以及根据容量在内存中存储一个子集。比如,如果有100个条目,然后内存只能存储20条,那么磁盘上会存储所有的100条,然后为了提高性能在内存中缓存20条。

另外值得一提的是,和纯内存的使用场景一样,当打开持久化时,每个独立的节点只会持久化数据的一个子集,不管是主还是备节点,都是只包括节点所属的分区的数据,总的来说,整个集群包括了完整的数据集。

Ignite的原生持久化有如下的特性,其与第三方数据库有很大的不同,可用作Ignite持久化层的替代:

  • SQL查询会在囊括内存和磁盘的完整数据集上执行,这就意味着Ignite可以被用作一个以内存为中心的分布式SQL数据库;
  • 不需要在内存中保存所有的数据和索引,Ignite的持久化允许在磁盘上存储一个数据的超集,然后只在内存中保存频繁访问的数据的子集;
  • 集群即时重启,如果整个集群故障,那么是不需要通过从持久化预加载数据来对内存进行预热的,只要所有的节点都可以互相访问了,集群就具有了完整的功能;
  • 数据和索引在内存和磁盘上以类似的格式存储,这有助于避免在内存和磁盘之间移动数据时进行昂贵的转换;
  • 通过加入第三方的解决方案,可以具有创建集群的完整以及增量快照的功能。

# 1.2.开启持久化存储

要开启Ignite的原生持久化,需要给集群的节点配置传递一个DataStorageConfiguration的实例:

    持久化开启之后,所有的数据和索引都会存储在所有集群节点的内存和磁盘上,下图描述了在单独的集群节点的文件系统层看到的持久化结构:

    每个数据区和每个缓存的持久化

    Ignite可以为每个具体的数据区甚至每个缓存开启持久化,具体可以看内存区

    字段类型变更后集群无法启动

    在开发应用时可能需要修改自定义对象字段的类型。例如假设对象A的字段类型A.rangeint类型,然后决定将A.range的类型修改为long类型。之后会发现集群或应用将无法重启,因为Ignite不支持字段/列类型的更改。

    这时如果还在开发阶段,可以进入文件系统并删除Ignite工作目录中的以下目录:marshaller/db/wal/(如果调整了位置,dbwal可能位于其他地方)。

    但是如果是生产环境,则不要修改字段类型,而是在对象模型中添加一个新字段并删除旧字段,这个操作是支持的。同时ALTER TABLE命令可用于在运行时添加新列或删除现有列。

    首先,节点中的每个缓存都要有一个唯一的目录,从上图可知,可以看到至少两个缓存(Cache_A和Cache_B),由节点来维护它们的数据和索引。

    其次,对于节点的每个分区,不管是主还是备,Ignite的原生持久化都会在文件系统中创建一个专用文件。比如,对上面的节点来说,它负责分区1,10到564,索引是每个缓存一个文件。

    缓存组和分区文件

    如果Cache_A和Cache_B属于同一个缓存组,那么这些缓存共享的分区文件会放在一个目录中。

    最后,和预写日志活动有关的文件和目录,在预写日志检查点中还会介绍。

    集群激活

    注意如果开启了Ignite持久化,集群默认是未激活的,无法进行任何的CRUD操作。用户需要手工激活集群,在这里介绍了如何对集群进行激活。

    # 1.3.配置持久化存储路径

    启用持久化之后,节点就会在{IGNITE_WORK_DIR}/db目录中存储用户的数据、索引和WAL文件,该目录称为存储目录。通过配置DataStorageConfigurationstoragePath属性可以修改存储目录。

    每个节点都会在存储目录下维护一个子目录树,来存储缓存数据、WAL文件和WAL存档文件。

    子目录名 描述
    {WORK_DIR}/db/{consistentId} 该目录中包括了缓存的数据和索引
    {WORK_DIR}/db/wal/{consistentId} 该目录中包括了WAL文件
    {WORK_DIR}/db/wal/archive/{consistentId} 该目录中包括了WAL存档文件

    这里的nodeId要么是节点的一致性ID(如果在节点配置中定义)要么是自动生成的节点ID,它用于确保节点目录的唯一性。如果多个节点共享同一工作目录,则它们将使用不同的子目录。

    如果工作目录包含多个节点的持久化文件(存在多个具有不同nodeId{consistentId}子目录),则该节点将选择第一个未使用的子目录。为了确保节点即使重启也始终使用特定的子目录,即指定数据分区,需要在节点配置中将IgniteConfiguration.setConsistentId设置为集群范围内的唯一值。

    修改存储目录的代码如下所示:

      确保持久化文件不存储于临时文件夹

      部分系统中,默认的位置可能位于/temp文件夹,这可能导致在重启节点进程时操作系统删除持久化文件,为了避免这种情况需要注意:

      • 不要禁用Ignite的WARN日志级别,如果持久化文件写入临时文件夹,会输出一个警告;
      • 使用DataStorageConfiguration的API,比如setStoragePath(...)setWalPath(...)setWalArchivePath(...)修改持久化文件的位置;
      • igniteWorkDir指向非临时文件夹(IgniteConfiguration#igniteWorkDir)。

      一台主机隔离集群中的节点

      Ignite可以在一台主机上隔离多个集群,这时每个集群都要在文件系统的不同目录下存储持久化文件,这时可以通过DataStorageConfigurationsetStoragePath(...)setWalPath(...)setWalArchivePath(...)方法来重新定义每个集群的相应路径。

      # 1.4.事务保证

      Ignite的原生持久化是一个兼容ACID的分布式存储,每个事务性更新都会首先被添加到WAL。更新会被赋予一个唯一的ID,这意味着集群在故障或者重启时总是会恢复到最近的成功提交的事务或者原子性更新。

      # 1.5.SQL支持

      Ignite的原生持久化可以将Ignite作为一个分布式的SQL数据库。

      在集群中执行SQL查询时是不需要在内存中保存所有的数据的,Ignite会在内存和磁盘上的所有数据中执行。另外,在集群重启后将所有的数据都预加载到内存中也是一个选择,这时当集群启动运行时,就可以执行SQL查询了。

      # 1.6.Ignite持久化内部

      本章节提供了Ignite持久化的一个高层视图,如果想了解更多的技术细节,可以看下面的文档:

      # 1.7.性能提示

      固化内存调优章节中有关于性能方面的建议。

      # 1.8.示例

      要了解Ignite的原生持久化在实践中的应用,可以看GitHub上的这个示例

      # 2.预写日志(WAL)

      # 2.1.概述

      Ignite的持久化会为节点的每个分区创建和维护一个专有文件,但是当内存中的页面更新时,更新是不会直接写入对应的分区文件的,因为会严重影响性能,而是将数据写入预写日志的尾部(WAL)。

      WAL的目的是为单个节点或者整个集群故障的场景提供一种恢复机制。值得一提的是,集群可以根据WAL的内容在故障或者重启时随时恢复到最近成功提交的事务。

      整个WAL会被拆分为若干个文件,叫做段,它是按顺序进行填充的。当第一个段满了之后,它的内容会被复制到WAL存档(具体可以看下面的WAL存档章节),在第一个段的复制过程中,第二个段会被视为激活的WAL文件,然后接收由应用发送过来的更新请求。默认会创建和使用10个这样的段,这个数值可以通过DataStorageConfiguration.walSegments进行修改。

      每个更新在写入WAL文件之前会被写入缓冲区,这个缓冲区的大小由DataStorageConfiguration.walBuffSize属性定义。如果开启了内存映射文件,WAL缓冲区大小默认等于WAL段大小,如果禁用了内存映射文件,WAL缓冲区大小为WAL段大小的四分之一。注意内存映射文件默认是开启的,它可以通过IGNITE_WAL_MMAP系统属性进行调整,这个属性可以通过JVM参数传入,比如:-DIGNITE_WAL_MMAP=false

      # 2.2.WAL模式

      根据WAL模式的不同,Ignite提供了如下的一致性保证:

      WAL模式 描述 一致性保证
      FSYNC 保证每个原子写或者事务性提交都会持久化到磁盘。 数据更新不会丢失,不管是任何的操作系统或者进程故障,甚至是电源故障。
      LOG_ONLY 默认模式,对于每个原子写或者事务性提交,保证会刷新到操作系统的缓冲区缓存或者内存映射文件。默认会使用内存映射文件方式,并且可以通过将IGNITE_WAL_MMAP系统属性配置为false将其关闭。 如果仅仅是进程崩溃数据更新会保留。
      BACKGROUND 如果打开了IGNITE_WAL_MMAP属性(默认),该模式的行为类似于LOG_ONLY模式,如果关闭了内存映射文件方式,变更会保持在节点的内部缓冲区,缓冲区刷新到磁盘的频率由DataStorageConfiguration.setWalFlushFrequency参数定义。 如果打开了IGNITE_WAL_MMAP属性(默认),该模式提供了与LOG_ONLY模式一样的保证,否则如果进程故障或者其它的故障发生时,最近的数据更新可能丢失。
      NONE WAL被禁用,只有在节点优雅地关闭时,变更才会正常持久化,使用Ignite#active(false)可以冻结集群以及停止节点。 如果一个节点异常终止,可能出现数据丢失,存储于磁盘上的数据很可能会损坏或者不同步,然后持久化目录需要清理以便节点重启。

      下面是如何配置WAL模式的代码示例:

        # 2.3.WAL激活和冻结

        WAL是Ignite持久化的一个基本组件,会在集群故障时保证持久性和一致性。

        但是,有时因为性能原因禁用WAL也是合理的,比如,通常在数据初始加载时禁用WAL,然后在预加载完毕后再打开它。

        分别通过IgniteCluster.enableWal(cacheName)IgniteCluster.disableWal(cachename)方法可以打开和关闭WAL。如果要检查某个缓存是否开启了WAL,可以使用IgniteCluster.isWalEnabled(cacheName)

        如果使用SQL,可以使用ALTER TABLE命令打开/关闭WAL。

        注意

        如果禁用了WAL并重新启动节点,则将从该节点上的持久化存储中删除所有数据,这是因为如果没有WAL,在节点故障或重启时无法保证数据的一致性。

        # 2.4.WAL存档

        WAL存档用于保存故障后恢复节点所需的WAL段。存档中保存的段的数量应确保所有段的总大小不超过WAL存档的既定大小。

        WAL存档的最大大小可以通过DataStorageConfiguration.maxWalArchiveSize属性进行配置,默认值为1GB。

        WAL存档的优缺点

        优点:WAL存档有助于在新节点加入集群或旧节点在短暂停机后重新接入时加快数据再平衡。 缺点:WAL存档会导致性能下降。

        注意

        将WAL存档大小配置为小于默认值可能影响性能,用于生产之前需要进行测试。

        # 2.5.WAL记录压缩

        设计文档中所述,在确认用户操作之前,代表数据更新的物理和逻辑记录已写入WAL文件,Ignite可以先将WAL记录压缩到内存中,然后再写入磁盘以节省空间。

        WAL记录压缩要求引入ignite-compress模块。如果使用的是二进制包,需要将IGNITE_HOME/libs/optional/ignite-compress目录复制到IGNITE_HOME/libs/。如果使用Maven,则应将ignite-compress依赖项添加到pom.xml中。

        WAL记录压缩默认是禁用的,如果要启用,需要在数据存储配置中设置压缩算法和压缩级别:

          支持的压缩算法在这里有列出。

          # 2.6.WAL存档调整

          下面是一些关于如何通过调整WAL存档参数来调整空间占用和集群性能的提示。

          # 2.6.1.WAL存档压缩

          可以启用WAL存档压缩以减少WAL存档占用的空间。启用压缩后Ignite将从所有存档的旧检查点段中删除物理记录,并以ZIP格式压缩。如果需要这些段(例如,为了在节点之间再平衡数据),它们会被解压缩为原始格式。

          要启用WAL存档压缩,请将DataStorageConfiguration.walCompactionEnabled属性设置为true,还可以指定压缩级别(1表示最快的速度,9表示最佳的压缩)。

            # 2.6.2.禁用WAL存档

            有时可能想要禁用WAL存档,比如减少与将WAL段复制到存档文件有关的开销,当Ignite将数据写入WAL段的速度快于将段复制到存档文件的速度时,这样做就有用,因为这样会导致I/O瓶颈,从而冻结节点的操作,如果遇到了这样的问题,就可以尝试关闭WAL存档。

            要关闭存档,可以将WAL路径和WAL存档路径配置为同一个值,这时Ignite就不会将段复制到存档文件,而是只是在WAL文件夹中创建新的段。根据WAL存档大小设置,旧段将随着WAL的增长而删除。

              # 3.检查点

              # 3.1.概述

              由于WAL文件会一直增长,而且通过WAL从头到尾地恢复集群会花费大量的时间。为了解决这个问题,Ignite引入了一个检查点过程。

              检查点是一个将脏页面从内存复制到磁盘上的分区文件的过程,脏页面是指页面已经在内存中进行了更新但是还没有写入对应的分区文件(只是添加到了WAL中)。

              这个过程通过在磁盘上保持页面的最新状态而节省更多的磁盘空间,并且可以在WAL存档中删除过时的WAL段(文件)。

              # 3.2.工作方式

              下图显示的是一个简单的更新操作的执行过程:

              1. 节点接收到更新请求之后,它会在内存中查找该数据所属的数据页面,该页面会被更新然后标记为脏页面;
              2. 更新会被附加到WAL的尾部;
              3. 节点会向更新发起方发送一个更新成功的确认信息;
              4. 根据配置或者其它参数配置的频率,检查点会被定期地触发。脏页面会从内存复制到磁盘,然后传递给特定的分区文件;

              # 4.第三方存储

              # 4.1.概述

              Ignite可以做为已有的第三方数据库之上的一个缓存层(内存数据网格),包括RDBMS、Apache Cassandra,该模式可以对底层数据库进行加速。Ignite对于在任何RDBMS和Cassandra中进行数据库记录的读写,提供了直接的支持,而对于其它NoSQL数据库的通读和通写功能,则没有现成的实现,不过Ignite提供了API,可以实现自定义的CacheStore

              JCache规范提供了javax.cache.integration.CacheLoaderjavax.cache.integration.CacheWriterAPI,它们分别用于底层持久化存储的通读通写(比如RDBMS中的Oracle或者MySQL,以及NoSQL数据库中的MongoDB或者CouchDB)。除了键-值操作,Ignite还支持INSERT、UPDATE和MERGE操作的通写,但是SELECT查询是无法读取第三方数据库的数据的。

              虽然Ignite可以单独地配置CacheRLoaderCacheWriter,但是在两个单独的类中实现事务化存储是非常尴尬的,因为多个loadput操作需要在同一个事务中的同一个连接中共享状态。为了解决这个问题,Ignite提供了org.apacche.ignite.cache.store.CacheStore接口,它同时扩展了CacheLoaderCacheWriter

              事务

              CacheStore是完整事务性的,它会自动地融入当前的缓存事务。

              # 4.2.通读和通写

              如果需要通读和通写行为时,就得提供一个正确的CacheStore实现。通读意味着当缓存无效时会从底层的持久化存储中读取,注意这只对缓存的get操作有效,Ignite的SELECT查询不会从第三方持久化中通读数据,要执行SELECT查询,数据必须从数据库中预加载到Ignite缓存中(后面会解释)。

              通写意味着当缓存更新时会自动地进行持久化。所有的通读和通写都会参与整体的缓存事务以及作为一个整体提交或者回滚。

              要配置通读和通写,需要实现CacheStore接口以及设置CacheConfigurationcacheStoreFactoryreadThroughwriteThrough属性,下面的示例会有说明。

              # 4.3.后写缓存

              在一个简单的通写模式中每个缓存的put和remove操作都会涉及一个持久化存储的请求,因此整个缓存更新的持续时间可能是相对比较长的。另外,密集的缓存更新频率也会导致非常高的存储负载。

              对于这种情况,Ignite提供了一个选项来执行异步化的持久化存储更新,也叫做后写,这个方式的主要概念是累加更新操作然后作为一个批量操作异步刷入持久化存储。

              性能和一致性

              启用后写缓存可以通过异步更新来提高性能,但这可能会导致一致性下降,因为某些更新可能由于节点故障或崩溃而丢失。

              真实的数据持久化可以被基于时间的事件触发(数据输入的最大时间受到队列的限制),也可以被队列的大小触发(当队列大小达到一个限值),或者通过两者的组合触发,这时任何事件都会触发刷新。

              更新顺序

              对于后写的方式只有数据的最后一次更新会被写入底层存储。如果键为key1的缓存数据分别依次地更新为值value1、value2和value3,那么只有(key1,value3)对这一个存储请求会被传播到持久化存储。

              更新性能

              批量的存储操作通常比按顺序的单一存储操作更有效率,因此可以通过开启后写模式的批量操作来利用这个特性。简单类型(put和remove)的简单顺序更新操作可以被组合成一个批量操作。比如,连续地往缓存中加入(key1,value1),(key2,value2),(key3,value3)可以通过一个单一的CacheStore.putAll(...)操作批量处理。

              后写缓存可以通过CacheConfiguration.setWriteBehindEnabled(boolean)配置项来开启,下面的配置章节显示了一个完整的配置属性列表来进行后写缓存行为的定义。

              # 4.4.配置

              下面cacheConfiguration的配置参数可以用于启用以及配置后写缓存:

              setter方法 描述 默认值
              setWriteBehindEnabled(boolean) 设置后写是否启用的标志 false
              setWriteBehindFlushSize(int) 后写缓存的最大值,如果超过了这个限值,所有的缓存数据都会被刷入CacheStore然后写缓存被清空。如果值为0,刷新操作将会依据刷新频率间隔,注意不能将写缓存大小和刷新频率都设置为0 10240
              setWriteBehindFlushFrequency(long) 后写缓存的刷新频率,单位为毫秒,该值定义了从对缓存对象进行插入/删除和当相应的操作被施加到CacheStore的时刻之间的最大时间间隔。如果值为0,刷新会依据写缓存大小,注意不能将写缓存大小和刷新频率都设置为0 5000
              setWriteBehindFlushThreadCount(int) 执行缓存刷新的线程数 1
              setWriteBehindBatchSize(int) 后写缓存存储操作的操作数最大值 512

              CacheStore接口可以在CacheConfiguration上通过一个工厂进行设置,和CacheLoaderCacheWriter是同样的方式。

              注意

              对于分布式缓存的配置,Factory应该是可序列化的。

                # 4.5.RDBMS集成

                Ignite可以和任意RDBMS集成,将数据加载进Ignite缓存,然后执行键-值操作,包括ACID事务,这有两种方式:

                自动

                使用Ignite的Web控制台可以从RDBMS中自动导入元数据,以及创建Ignite的集群配置,具体细节可以看自动化RDBMS集成的相关文档。

                手动

                在Ignite的XML配置文件(或者通过代码)中,可以手动地开启JDBC的POJO存储,需要做的是:

                1. 下载实际数据库的JDBC驱动,然后将其放入应用的类路径中;
                2. 通过初始化CacheJdbcPojoStoreFactory,配置CacheConfigurationcacheStoreFactory属性,需要提供的属性如下:
                • dataSourceBean:数据库连接凭据,url、用户名、密码等;
                • dialect:兼容于数据库的方言,Ignite为如下的数据库提供直接支持:MySQL、Oracle、H2、SQL Server和DB2。这些方言位于Ignite的org.apache.ignite.cache.store.jdbc.dialect包中;
                • types:这个属性用于定义数据库表和相对应的POJO之间的映射(具体可以看下面的示例);

                配置完之后,就可以通过IgniteCache.loadCache()方法将数据从数据库中加载进对应的Ignite缓存。

                示例

                本例中使用MySQL数据库,假定有一个PERSON表,该表有字段:idorgIdname以及salary

                  CacheJdbcBlobStore

                  CacheJdbcBlobStore的实现基于JDBC,这个实现将对象用BLOB格式存储于底层数据库中,Store会在数据库中创建ENTRIES表,用于数据存储,该表有keyval两个字段。如果提供了自定义的DDL和DML语句,那么所有语句中的表名和字段名都应该是一致的,并且参数的顺序也要保留。

                  可以使用CacheJdbcBlobStoreFactory工厂向CacheConfiguration传入CacheJdbcBlobStore:

                  <bean id= "simpleDataSource" class="org.h2.jdbcx.JdbcDataSource">
                          <property name="url" value="jdbc:h2:mem:jdbcCacheStore;DB_CLOSE_DELAY=-1" />
                  </bean>
                  
                  <bean id="ignite.cfg" class="org.apache.ignite.configuration.IgniteConfiguration">
                    ...
                     <property name="cacheConfiguration">
                       <list>
                         <bean class="org.apache.ignite.configuration.CacheConfiguration">
                           ...
                             <property name="cacheStoreFactory">
                               <bean class="org.apache.ignite.cache.store.jdbc.CacheJdbcBlobStoreFactory">
                                 <property name="user" value = "user" />
                                 <property name="dataSourceBean" value = "simpleDataSource" />
                               </bean>
                             </property>
                         </bean>
                        </list>
                      </property>
                    ...
                  </bean>
                  

                  CacheJdbcPojoStore

                  CacheJdbcPojoStore实现基于JDBC和基于反射的POJO,这个实现将对象用基于反射的Java Bean映射描述的形式存储在底层数据库中。

                  可以使用CacheJdbcPojoStoreFactory工厂向CacheConfiguration传入CacheJdbcPojoStore:

                  <bean id= "simpleDataSource" class="org.h2.jdbcx.JdbcDataSource"/>
                  
                  <bean id="ignite.cfg" class="org.apache.ignite.configuration.IgniteConfiguration">
                    ...
                      <property name="cacheConfiguration">
                        <list>
                          <bean class="org.apache.ignite.configuration.CacheConfiguration">
                            ...
                              <property name="cacheStoreFactory">
                                <bean class="org.apache.ignite.cache.store.jdbc.CacheJdbcPojoStoreFactory">
                                  <property name="dataSourceBean" value = "simpleDataSource" />
                                </bean>
                              </property>
                          </bean>
                        </list>
                      </property>
                  </bean>
                  

                  CacheHibernateBlobStore

                  CacheHibernateBlobStore实现基于Hibernate,这个实现将对象以BLOB的格式存储在底层数据库中。

                  可以使用CacheHibernateBlobStoreFactory工厂向CacheConfiguration传入CacheHibernateBlobStore:

                  <bean id="ignite.cfg" class="org.apache.ignite.configuration.IgniteConfiguration">
                    ...
                      <property name="cacheConfiguration">
                        <list>
                          <bean class="org.apache.ignite.configuration.CacheConfiguration">
                            <bean class="org.apache.ignite.cache.store.hibernate.CacheHibernateBlobStoreFactory">
                             <property name="hibernateProperties">
                               <props>
                                 <prop key="connection.url">jdbc:h2:mem:</prop>
                                 <prop key="hbm2ddl.auto">update</prop>
                                 <prop key="show_sql">true</prop>
                               </props>
                             </property>
                           </bean>
                         </list>
                      </property>
                    ...
                  </bean>
                  

                  # 4.6.NoSQL集成

                  Ignite可以与NoSQL数据库(比如Cassandra)集成。具体请参见Cassandra集成的相关文档,以了解如何将Cassandra用作Ignite持久化存储。对于其它NoSQL数据库,Ignite不提供任何现成的实现,开发者可以实现自己的CacheStore

                  注意,虽然Ignite支持分布式事务,但如果将NoSQL数据库用作Ignite的持久层,Ignite也不会使其具有事务性。除非NoSQL数据库直接支持事务。比如,在Ignite缓存上执行的事务不会传播到Cassandra。

                  # 4.7.自定义CacheStore

                  开发者还可以实现自己的CacheStoreCacheStore接口允许从底层数据存储中写入和读取数据。除了标准的JCache加载和存储方法外,它还引入了事务结束边界和从数据库批量加载缓存的能力。

                  loadCache()

                  CacheStore.loadCache()方法可以进行缓存的加载,而不需要传入要加载的所有键,它通常用于启动时缓存的热加载,但是也可以在缓存加载完之后的任何时间点调用。

                  在每一个相关的集群节点,IgniteCache.loadCache()方法会委托给CacheStore.loadCache()方法,如果只想在本地节点上进行加载,可以用IgniteCache.localLoadCache()方法。

                  提示

                  对于分区缓存,不管是主节点还是备份节点,如果键没有被映射到该节点,会被缓存自动丢弃。

                  load(), write(), delete()

                  当调用IgniteCache接口的get(),put(),remove()方法时,相对应的会调用CacheStoreload(),write()delete()方法,当处理单个缓存条目时,这些方法会用于通读通写处理。

                  loadAll(), writeAll(), deleteAll()

                  当调用IgniteCache接口的getAll(),putAll(),removeAll()方法时,相对应的会调用CacheStoreloadAll(),writeAll()deleteAll()方法,当处理多个缓存条目时,这些方法会用于通读通写处理,它们通常用批量操作的方式实现以提高性能。

                  注意

                  CacheStoreAdapter提供了loadAll(),writeAll()deleteAll()方法的默认实现,它只是简单地对键进行一个个地迭代。

                  sessionEnd()

                  Ignite有一个存储会话的概念,它可以跨越不止一个CacheStore操作,会话对于事务非常有用。

                  对于ATOMIC模式的缓存,sessionEnd()方法会在每个CacheStore方法完成之后被调用。对于TRANSACTIONAL模式的缓存,不管在底层持久化存储提交还是回滚多少个操作,sessionEnd()方法都会在每个事务结束后被调用。

                  注意

                  CacheStoreAdapater提供了sessionEnd()方法的默认的空实现。

                  CacheStoreSession

                  CacheStoreSession的主要目的是当CacheStore用于事务中时在多个存储操作中持有一个上下文。比如,如果使用JDBC,可以通过CacheStoreSession.attach()方法保存数据库的连接,然后可以在CacheStore.sessionEnd(boolean)方法中提交这个连接。

                  CacheStoreSession可以通过@GridCacheStoreSessionResource注解注入自定义的CacheStore实现中。

                  示例

                  下面是几个不同场景的CacheStore的实现,注意有没有事务时的不同处理。

                    # 4.8.原生持久化和第三方持久化一起使用

                    从2.4版本开始,在一个集群中,Ignite支持原生持久化和第三方持久化的共存,如果启用了第三方持久化,Ignite会尽力保证两者之间的一致性。

                    但是,当使用事务且在事务提交期间,如果负责一个分区的所有节点故障(或者整个集群故障),数据可能会不一致。根据时间节点,第三方持久化和原生持久化的事务状态可能有所不同。

                    警告

                    Ignite无法保证原生持久化和第三方持久化之间的严格一致性,因为目前的CacheStore接口还不支持二阶段提交协议。

                    在恢复时,必须对两个存储的提交日志进行比较。不一致时,相应的缺失事务要么重做要么回滚。

                    # 5.基线拓扑

                    # 5.1.概述

                    如果启用了原生持久化,Ignite引入了一个基线拓扑的概念,它表示集群中将数据持久化到磁盘的一组服务端节点。

                    通常,打开原生持久化第一次启动集群后,集群处于非激活状态,无法进行任何CRUD操作。比如,如果尝试执行一个SQL或者键-值操作,会抛出一个异常,如下图所示:

                    这样做是为了避免可能的性能、可用性和一致性问题,如果集群正在重启,然后应用就开始修改持久化在还未加入集群的节点的数据,因此,需要为开启持久化的集群定义一个基线拓扑,之后,Ignite就可以手工或者自动地维护它,下面会看这个概念的细节以及如何使用。

                    # 5.2.基线拓扑是什么

                    基线拓扑是一组Ignite服务端节点,目的是同时在内存以及原生持久化中存储数据。基线拓扑中的节点在功能方面不受限制,并且作为数据和计算的容器,在行为上也和普通的服务端节点一样。

                    另外,部分节点不属于基线拓扑,也是可以的,比如:

                    • 服务端节点要么在内存中存储数据,要么在第三方数据库,比如RDBMS或者NoSQL中持久化数据;
                    • 客户端节点也不在基线拓扑中,因为它们不持有共享数据。

                    基线拓扑的目的是:

                    • 如果节点重启,避免不必要的数据再平衡。比如,每个节点重启都会触发两个再平衡事件,一个是节点停止,一个是节点重新加入集群,这会导致集群资源的无效利用;
                    • 集群重启后,如果基线拓扑中的所有节点都已经加入,那么集群会被自动激活。

                    深入了解基线拓扑

                    如果要深入了解基线拓扑和集群自动激活的细节,可以看这个Wiki页面

                    打开持久化之后,集群第一次启动是没有配置基线拓扑的,这是唯一一个需要人工干预的时间点。因此,当所有属于基线拓扑的节点都启动运行之后,就可以通过代码或者命令行工具进行配置了,之后Ignite就会自动地处理集群的激活过程。

                    在整个生命周期中,同样的工具和API也可以对基线拓扑进行调整。通过配置让更多或者更少的节点存储数据,就可以对已有的基线拓扑进行缩放,下面的章节会说明如何使用这些API和工具。

                    # 5.3.配置基线拓扑

                    基线拓扑只能在一个激活的集群上进行配置,因此首先要对集群进行激活,然后才能配置基线拓扑。

                    集群激活

                    要让开启了原生持久化的集群可以自动激活,那么第一次要对集群做一次手工激活,目前支持4种方式:通过代码、命令行、REST API或者第三方工具,下面会详细介绍。

                    当集群第一次激活之后,基线拓扑就从当前的服务端节点中自动建立起来,这步完成之后,与构成基线拓扑有关的节点信息就会持久化到磁盘。之后即使关闭或者重启集群,只要基线拓扑中的节点启动运行,集群都会自动地激活。

                      有关如何通过REST API来对集群进行激活/冻结的更新信息,可以看这个文档

                      集群冻结

                      警告

                      冻结将释放所有集群节点上的所有内存资源,包括应用的数据,并禁用公共集群API。如果内存中的缓存没有通过持久化存储进行备份,则将丢失数据,后续就需要重新加载这些缓存。

                      要冻结集群,可以使用下面的方法:

                        通过代码配置基线拓扑

                        如上所述,手工激活集群之后基线拓扑就会自动初始化,使用IgniteCluster.activate()方法,可以通过代码对集群进行激活,然后可以使用IgniteCluster.setBaseLineTopogy()对已有的基线拓扑进行调整,注意必须激活集群之后才能调用这个方法。

                          如果之后更新了基线拓扑,比如说往其中加入了新的节点,那么Ignite就会在所有新的基线拓扑节点中对数据进行再平衡。

                          通过命令行配置基线拓扑

                          同样可以使用命令行工具在命令行中对集群进行激活/冻结以及对基线拓扑进行配置。

                          获取节点的一致性ID

                          定义和调整基线拓扑的命令需要提供一个节点的一致性ID,这个ID是在节点第一次启动时赋予节点的,并且在重启之后还会复用。要获取当前运行节点的一致性ID,可以在$IGNITE_HOME/bin文件夹中执行./control.sh --baseline命令来获取与集群基线拓扑有关的信息,比如:

                            输出大致如下:

                            Cluster state: active
                            Current topology version: 4
                            
                            Baseline nodes:
                                ConsistentID=cde228a8-da90-4b74-87c0-882d9c5729b7, STATE=ONLINE
                                ConsistentID=dea120d9-3157-464f-a1ea-c8702de45c7b, STATE=ONLINE
                                ConsistentID=fdf68f13-8f1c-4524-9102-ac2f5937c62c, STATE=ONLINE
                            --------------------------------------------------------------------------------
                            Number of baseline nodes: 3
                            
                            Other nodes:
                                ConsistentID=5d782f5e-0d47-4f42-aed9-3b7edeb527c0
                            

                            上面的信息显示了:集群的状态、拓扑的版本、属于和不属于基线拓扑一部分的节点及其一致性ID。

                            配置基线拓扑

                            要将一组节点组成基线拓扑,可以使用./control.sh --baseline set命令再加上节点一致性ID的列表:

                              另外,也可以使用数值化的集群拓扑版本来配置基线:

                                在上面这个命令中,需要将topologyVersion替换为实际的拓扑版本。

                                将节点加入拓扑

                                要将节点加进已有的基线拓扑,可以使用./control.sh --baseline add命令,它会接受逗号分隔的、待加入拓扑的节点的一致性ID列表。

                                  比如,下面的命令会将一致性ID为5d782f5e-0d47-4f42-aed9-3b7edeb527c0的节点加入基线拓扑:

                                    从拓扑中删除节点

                                    要从拓扑中删除节点,使用./control.sh --baseline remove命令,语法如下:

                                      注意,计划要从拓扑中删除的节点首先要停止,否则会抛出一个信息类似Failed to remove nodes from baseline的异常,下面的示例显示如何删除一致性ID为fdf68f13-8f1c-4524-9102-ac2f5937c62c的节点(假定该节点已经停止):

                                        集群激活命令行工具

                                        Ignite提供了control.sh|bat脚本,位于$IGNITE_HOME/bin文件夹,它是作为从命令行激活/冻结集群的工具,也可以用于配置基线拓扑。control.sh|bat支持如下的命令:

                                        命令 描述
                                        --activate 激活集群
                                        --deactivate 冻结集群
                                        --host {ip} 集群IP地址,默认值为127.0.0.1
                                        --port {port} 要连接的端口,默认值为11211
                                        --state 输出当前的集群状态
                                        --baseline 如果没有任何参数,该命令输出该集群的基线拓扑信息。它支持如下的参数:addremovesetversion
                                        --baseline add 往基线拓扑中添加节点
                                        --baseline remove 从基线拓扑中删除节点
                                        --baseline set 配置基线拓扑
                                        --baseline version 基于版本配置基线拓扑

                                        可以使用./control.sh --help查看帮助。

                                        使用第三方工具进行激活

                                        要激活集群以及配置基线拓扑,还可以使用这个第三方工具

                                        # 5.4.基线拓扑自动调整

                                        如果不想手动调整基线拓扑,还可以让集群自动调整基线拓扑。此功能称为基线拓扑自动调整。启用后集群将监控其服务端节点的状态,并在集群拓扑稳定一段可配置的时间后自动设置当前拓扑的基线。

                                        当集群中的节点集发生变更时,将发生以下情况:

                                        • Ignite会等待一个可配置的时间(默认为5分钟);
                                        • 如果在此期间拓扑中没有其他变更,则Ignite会将基线拓扑设置为当前节点集;
                                        • 如果在此期间节点集发生更改,则会更新超时时间。

                                        这些节点集的每个变更都会重置自动调整的超时时间。当超时过期且当前节点集与基线拓扑不同(例如存在新节点或一些旧节点离开)时,Ignite将更改基线拓扑以匹配当前节点集,这也会触发数据再平衡

                                        自动调整超时时间使得用户可以在节点由于临时性网络问题而短时间断开连接或希望快速重启节点时避免数据再平衡。如果希望节点集的临时变更不更改基线拓扑,则可以将超时设置为更高的值。

                                        只有当集群处于激活状态时,基线拓扑才会自动调整。

                                        此功能默认是禁用的,可以使用控制脚本开启该功能,还可以通过编程方式启用该功能。

                                          这个命令开启了自动调整功能并且配置超时时间为30s。

                                          如果要禁用该功能,可以使用下面的命令:

                                            # 5.5.集群激活/冻结事件

                                            集群激活/冻结时,Ignite会产生对应的事件:

                                            通过监听这些事件可以获得集群激活/冻结的通知,关于如何配置事件监听器,可以参见本地和远程事件

                                            # 5.6.使用场景

                                            设计基线拓扑的目的是避免不必要的分区重新分配和数据的再平衡。这意味着相对于特定事件(比如节点加入或者离开集群),决定什么时候对基线拓扑进行调整(会触发数据再平衡),变成了运维人员的职责。如上所述,这可以通过control.sh|bat命令手工完成,也可以通过一些外部的自动化工具实现(比如一个检查运行Ignite节点的主机健康状态的系统,会从基线拓扑中移除不稳定或者故障的节点)。

                                            再平衡和非基线服务端节点

                                            只存储在内存中(或内存中和第三方持久化)中的数据再平衡会自动触发,不需要任何人工干预。

                                            下面会讨论若干个常见场景,即如果开启了Ignite原生持久化时的基线拓扑管理问题。

                                            集群第一次启动

                                            场景:集群第一次启动,没有数据预加载。

                                            步骤:

                                            1. 不管什么方式,启动所有节点,比如通过ignite.sh,这时:
                                            • 集群为非激活状态,无法处理来自客户端的和数据相关的请求(键-值、SQL、扫描查询等);
                                            • 基线拓扑未配置。
                                            1. 通过调用control.sh --activate激活集群,或者上面文档描述的其它方式,做了如下事情:
                                            • 将正在运行的服务端节点全部加入基线拓扑;
                                            • 将集群切换为激活状态,允许交互。

                                            注意

                                            control.sh --activate命令只在第一次激活时配置基线拓扑,如果已经配置了基线拓扑,则该命令无效。

                                            注意

                                            集群激活之后,除非手工冻结或者所有节点停止,否则会一直处于激活状态,单节点的退出不会影响整个集群的可用性。

                                            集群重启

                                            场景:所有节点都需要重启(比如执行系统或者硬件升级)。

                                            步骤:

                                            1. 正常停止所有的节点;
                                            2. 执行升级;
                                            3. 启动所有的节点,基线拓扑中的所有节点都启动之后,集群会被自动激活;

                                            启用持久化后,使用新的Ignite版本升级集群

                                            场景:所有节点都需要使用新的Ignite版本重启,然后数据从Ignite持久化重新加载。

                                            步骤:

                                            1. 正常停止所有的节点;
                                            2. 配置storagePathwalPathwalArchivePath属性,如果这些属性在当前版本的Ignite中已经显式指定,则在新版本的配置中需要保留,如果当前版本未指定,那么需要提供这些属性的默认值;
                                            3. {current_Ignite_version}/work目录复制binary_metamarshaller文件夹到{new_Ignite_version}/work文件夹,如果当前版本的Ignite通过IgniteConfiguration.workDirectory修改了工作目录,那么新版本的Ignite也要将该属性修改为相同的值;
                                            4. 启动所有的节点。基线拓扑中的所有节点都启动成功后,集群会自动激活。

                                            添加新的节点

                                            场景:添加一个新的空节点(没有持久化的数据)。

                                            步骤:

                                            1. 正常启动节点,这时:
                                            • 集群仍然是激活状态;
                                            • 新节点已经加入集群,但是未加入基线拓扑;
                                            • 新节点可以用于存储不使用持久化的缓存/表的数据;
                                            • 新节点无法在持久化中存储缓存/表的数据;
                                            • 新节点可用于计算。
                                            1. 如果希望该节点可以在持久化中存储数据,那么需要通过control.sh --baseline add <节点的一致性ID>或者其它方式将其加入基线拓扑,然后:
                                            • 基线拓扑会调整,包含新的节点;
                                            • 在新的基线拓扑中进行数据再平衡。

                                            节点重启

                                            场景:节点需要重启,时间很短。

                                            步骤:

                                            1. 停止节点;
                                            2. 重启节点,之后:
                                            • 基线拓扑没有必要变化,重启之后节点仍然保留它的consistentId,因此集群以及基线拓扑只是将该节点收回;
                                            • 在节点下线期间如果有数据更新,修改的分区的数据会从其它节点复制到重启后的节点。

                                            注意

                                            如果节点重启时间很短,那么不要去碰基线拓扑是安全的(也是高效的),因此也不需要触发再平衡。
                                            但是如果时间很长,就需要从基线拓扑中删除该节点,然后触发再平衡以避免可能的数据丢失,因为在这期间另一个存储主备数据的节点发生故障也是可能的。

                                            基线节点删除

                                            场景:基线节点需要停止,或者除了严重的故障,然后需要从集群中永久删除,或者需要下线很长时间。

                                            步骤:

                                            1. 停止节点(如果还没有停止/故障),这时:
                                            • 集群仍然处于激活状态;
                                            • 停止的节点仍然在基线拓扑中,状态为失去连接;
                                            • 保存在内存中的缓存/表中的数据(或者开启了第三方持久化的缓存/表)会进行数据再平衡;
                                            • 如果开启了原生持久化,不会触发再平衡,在停止的节点恢复在线或者从基线拓扑中删除之前,复制因子(副本数量)都会减小。

                                            注意

                                            长时间降低复制因子可能是危险的。例如,考虑具有一个备份的缓存,如果一个节点故障,则没有数据丢失(因为一个副本仍然在线),但是需要尽快触发再平衡,因为如果另一个节点在重新平衡完成之前故障,则可能导致数据丢失。

                                            1. 通过调用contol.sh --baseline remove <node's consistentId>或者其它方式将节点从基线拓扑中删除,之后:
                                            • 基线拓扑发生变更,排除了停止的节点;
                                            • 开启原生持久化的缓存/表,会按照配置好的复制因子(或者副本数量)进行数据再平衡。

                                            注意

                                            节点从基线拓扑中删除之后,它就无法加入集群然后持有删除之前存储在持久化中的数据。通过在基线拓扑中删除一个节点,可以确定即使该节点重启,也无法再使用存储在该节点上的数据。

                                            非基线节点删除和故障处理

                                            不添加到基线拓扑的服务端节点不需要运维人员的额外干预来触发数据再平衡。由于这些节点只在内存(或内存和第三方数据库)中存储数据,所以再平衡会自动触发。

                                            # 5.7.编程方式触发再平衡

                                            如前述的节点重启节点删除章节所述,基线拓扑可能会在一个较长的时间段内维持复制因子(副本数量)的降低,因此如果预期下线时间足够长,就需要从基线拓扑中删除该节点,然后触发再平衡以避免可能的数据丢失,因为其它节点上存储的主备数据可能丢失。

                                            从基线拓扑中手动删除节点之后,就可以触发再平衡以及恢复复制因子。通过control.sh脚本以及监控工具,可以自动地执行删除操作,另外,使用如下的模板代码,也可以通过编程方式触发再平衡:

                                            import java.util.Set;
                                            import java.util.stream.Collectors;
                                            import org.apache.ignite.Ignite;
                                            import org.apache.ignite.cluster.BaselineNode;
                                            import org.apache.ignite.cluster.ClusterNode;
                                            import org.apache.ignite.events.DiscoveryEvent;
                                            import org.apache.ignite.events.EventType;
                                            import org.apache.ignite.internal.IgniteEx;
                                            import org.apache.ignite.internal.processors.timeout.GridTimeoutObjectAdapter;
                                            
                                            public class BaselineWatcher {
                                                /** Ignite. */
                                                private final IgniteEx ignite;
                                            
                                                /** BLT change delay millis. */
                                                private final long bltChangeDelayMillis;
                                            
                                                /**
                                                 * @param ignite Ignite.
                                                 */
                                                public BaselineWatcher(Ignite ignite, long bltChangeDelayMillis) {
                                                    this.ignite = (IgniteEx)ignite;
                                                    this.bltChangeDelayMillis = bltChangeDelayMillis;
                                                }
                                            
                                                /**
                                                 *
                                                 */
                                                public void start() {
                                                    ignite.events().localListen(event -> {
                                                        DiscoveryEvent e = (DiscoveryEvent)event;
                                            
                                                        Set<Object> aliveSrvNodes = e.topologyNodes().stream()
                                                            .filter(n -> !n.isClient())
                                                            .map(ClusterNode::consistentId)
                                                            .collect(Collectors.toSet());
                                            
                                                        Set<Object> baseline = ignite.cluster().currentBaselineTopology().stream()
                                                            .map(BaselineNode::consistentId)
                                                            .collect(Collectors.toSet());
                                            
                                                        final long topVer = e.topologyVersion();
                                            
                                                        if (!aliveSrvNodes.equals(baseline))
                                                            ignite.context().timeout().addTimeoutObject(new GridTimeoutObjectAdapter(bltChangeDelayMillis) {
                                                                @Override public void onTimeout() {
                                                                    if (ignite.cluster().topologyVersion() == topVer)
                                                                        ignite.cluster().setBaselineTopology(topVer);
                                                                }
                                                            });
                                            
                                                        return true;
                                                    }, EventType.EVT_NODE_FAILED, EventType.EVT_NODE_LEFT, EventType.EVT_NODE_JOINED);
                                                }
                                            }
                                            

                                            # 6.交换空间

                                            # 6.1.概述

                                            如果使用纯内存存储,随着数据量的大小逐步达到物理内存大小,可能导致内存溢出。要避免这种情况的发生,可能的想法包括开启原生的持久化或者使用第三方的持久化。但是,如果不想使用原生或者第三方的持久化,还可以开启交换,这时Ignite会将内存中的数据移动到磁盘上的交换空间,注意Ignite不会提供自己的交换空间实现,而是利用了操作系统(OS)提供的交换功能。

                                            打开交换空间之后,Ignite会将数据存储在内存映射文件(MMF)中,操作系统会根据内存使用情况,将其内容交换到磁盘,但是这时数据访问的性能会下降。另外,还没有数据持久性保证,这意味着交换空间中的数据只在节点在线期间才可用。一旦存在交换空间的节点停止,所有数据都会丢失。因此,应该使用交换空间作为内存的扩展,以便留出足够的时间向集群中添加更多的节点,以便数据重新分布并避免集群未及时扩容导致内存溢出的错误(OOM)发生。

                                            注意

                                            建议使用Ignite的原生持久化,它容量超过了RAM并且保留了持久性。

                                            # 6.2.配置

                                            数据区的maxSize定义了区域的整体最大值,如果数据量达到了maxSize,然后既没有使用原生持久化,也没有使用第三方数据库,那么可能会抛出内存溢出异常。使用交换可以避免这种情况的发生,这时:

                                            • 配置maxSize的值大于内存大小,这时操作系统就会使用交换;
                                            • 配置DataRegionConfiguration.swapPath属性来启用交换。

                                              可能的数据丢失

                                              虽然交换空间位于磁盘上,但不要认为它可以替代原生持久化,交换空间中的数据只在节点在线期间可用。一旦节点停止,所有数据都会丢失。要一直保证数据的可用性,要么使用原生持久化,要么使用第三方持久化。

                                              # 7.磁盘压缩

                                              磁盘压缩是指将数据页面写入磁盘时对其进行压缩的过程,以减小磁盘空间占用。这些页面在内存中是未压缩的,但是当将数据刷新到磁盘时,将使用配置的算法对其进行压缩。这仅适用于原生持久化并且不会压缩索引或WAL记录的数据页,WAL记录压缩是可以单独启用的。

                                              磁盘页面压缩是在每个缓存的配置中设定的,缓存必须在持久化的数据区中。目前没有选项可全局启用磁盘页面压缩,此外,还必须必须满足以下的条件:

                                              • 将持久化配置中的pageSize属性设置为文件系统页面大小的至少2倍,这意味着页面大小必须为8K或16K;
                                              • 启用ignite-compress模块。

                                              要为缓存启用磁盘页面压缩,需要在缓存配置中提供一种可用的压缩算法,如下所示:

                                                支持的算法

                                                支持的压缩算法包括:

                                                • ZSTD:支持从-131072到22的压缩级别(默认值:3);
                                                • LZ4:支持从0到17的压缩级别(默认值:0);
                                                • SNAPPY
                                                • SKIP_GARBAGE:该算法仅从半填充页面中提取有用的数据,而不压缩数据。

                                                18624049226

                                                最后更新时间:: 11/25/2023, 3:51:28 PM