本文介绍分库分表功能的使用场景和使用方法。

背景信息

  • 表变更业务逻辑中设置了访问某个表A,突然有一天需要修改为表B,此时只能修改配置进行线上变更。
  • 分库分表

    业务大部分场景只访问最近一周的数据,可以每隔一周新建一张表来存储,这样可以确保高效的查询热数据。在这个场景中需要自己来维护表的创建和删除,带来一定的业务复杂性。

适用场景

  • 时间序列场景

    业务数据具有明显的时间特性,可以基于时间来创建不同的索引,这样既能降低单个索引的大小,又能提升查询性能。整个过程中业务不需要自己维护索引创建和删除。

  • 重建索引场景

    在不影响已有索引查询下,重建新的索引,待索引建完后,指向新的索引访问。整个过程中业务不需要代码变更。

创建Alias指向已有的索引表

curl "http://solrhost:8983/solr/admin/collections?action=CREATEALIAS&name=your_alias_name&collections=your_collection_name_A"
            

以上URL表示:创建一个Alias名为your_allias_name,其指向一个索引表your_collection_name_A。业务逻辑中可以只设置访问your_alias_name,内核会自动转发请求到真实的索引表上。

如果需要变更索引表名为your_collection_name_B,执行更改Alias命令。

curl "http://solrhost:8983/solr/admin/collections?
action=ALIASPROP&name=your_alias_name&collections=your_collection_name_B"
            

业务代码上不需要任何变更即可访问新的索引表。

自动分表

搜索服务支持按照时间字段自动分表,大大简化业务逻辑。下面以具体的示例来介绍:业务要求以周为单位创建索引表,并且能够自动删除旧的索引表。

curl "http://solrhost:8983/solr/admin/collections?action=CREATEALIAS&name=test_router_alias&router.start=NOW-30DAYS/DAY&router.autoDeleteAge=/DAY-90DAYS&router.field=your_timestamp_l&router.name=time&router.interval=%2B7DAY&router.maxFutureMs=8640000000&create-collection.collection.configName=_indexer_default&create-collection.numShards=2"
            
参数 说明
router.start NOW-30DAYS/DAY 第一个collection创建的时间点,样例中给出的NOW-30DAYS/DAY代表以30天前开始新建索引。
router.interval +7DAY 间隔多久创建新的索引表,样例中给出的是每隔7天新建一个索引表。
router.autoDeleteAge /DAY-90DAYS 自动淘汰多久前的索引表,样例中给出的是淘汰90天前的索引表,其值必须大于router.start。
router.field your_timestamp_l 分表的时间字段,默认业务中需要携带这个字段,并指定时间值,例如当前的系统时间戳System.currentTimeMillis()。
router.maxFutureMs 8640000000 代表最大容忍写入的时间字段your_date_dt与当前时间的差值,防止写入过大的时间字段或者过小的时间值,样例中给出的是100天,即不能写入一条数据的时间比当前时间大100天或小100天。
collection.collection.configName _indexer_default 代表创建的索引表依赖的配置集,可以设置为自己的配置集名称,参考配置集更新
create-collection.numShards 2 创建的索引表shard个数,默认为2。

上面的业务含义,以30天前(假设今天是3月7日)开始创建索引,每隔7天新建一个索引,your_timestamp_l,并且它的值与当前时间在100天以内,周期性的删除90天过期的索引。

效果如下:

说明
  • 业务必须带有时间字段,可以为Date类型,也可以为Long类型。
  • 查询时,默认是查询全部索引表。此时,可以单独指定查询某个索引表。需要通过API或者URL获取到所有collection列表,然后提取其中的时间字段来判断真实访问的collection,可参见下面的代码样例。

删除Alias

普通的Alias可以直接通过下面的命令删除。

curl "http://solrhost:8983/solr/admin/collections?action=DELETEALIAS&name=your_alias_name"
            

如需删除具有自动分表的Alias,还需要主动删除关联的collection。

  1. 取得关联Alias的collection列表。
    curl "http://solrhost:8983/solr/admin/collections?action=LIST"
                        

    其中collection名称以test_router_alias开头的都是关联该Alias的collection。

  2. 删除Alias。
    curl "http://solrhost:8983/solr/admin/collections?action=DELETEALIAS&name=test_router_alias"
                        
  3. 删除所有collection。
    curl "http://solrhost:8983/solr/admin/collections?action=DELETE&name=collection_name"
                        

参考文档

CREATEALIAS:CREATEALIAS

LIST:LIST

如何指定long型时间进行查询

import org.apache.solr.client.solrj.SolrQuery;
import org.apache.solr.client.solrj.impl.CloudSolrClient;
import org.apache.solr.client.solrj.impl.ClusterStateProvider;
import org.apache.solr.client.solrj.response.QueryResponse;
import org.apache.solr.common.SolrDocument;
import org.apache.solr.common.util.StrUtils;

import java.time.Instant;
import java.time.ZoneOffset;
import java.time.format.DateTimeFormatter;
import java.time.format.DateTimeFormatterBuilder;
import java.time.temporal.ChronoField;
import java.util.AbstractMap;
import java.util.ArrayList;
import java.util.Collections;
import java.util.List;
import java.util.Locale;
import java.util.Map;
import java.util.Optional;

public class SolrDemo {
  private static final DateTimeFormatter DATE_TIME_FORMATTER = new DateTimeFormatterBuilder()
      .append(DateTimeFormatter.ISO_LOCAL_DATE).appendPattern("[_HH[_mm[_ss]]]")
      .parseDefaulting(ChronoField.HOUR_OF_DAY, 0)
      .parseDefaulting(ChronoField.MINUTE_OF_HOUR, 0)
      .parseDefaulting(ChronoField.SECOND_OF_MINUTE, 0)
      .toFormatter(Locale.ROOT).withZone(ZoneOffset.UTC);

  private static final String zkHost = "localhost:2181/solr";
  private CloudSolrClient cloudSolrClient;
  private ClusterStateProvider clusterStateProvider;

  public SolrDemo() {
    cloudSolrClient = new CloudSolrClient.Builder(
        Collections.singletonList(zkHost), Optional.empty()).build();
    cloudSolrClient.connect();
    clusterStateProvider = cloudSolrClient.getClusterStateProvider();
  }

  public void close() throws Exception {
    if (null != cloudSolrClient) {
      cloudSolrClient.close();
    }
  }

  private List<String> findCollection(String aliasName, long start, long end) {
    List<String> collections = new ArrayList<>();
    if (start > end) {
      return collections;
    }
    //基于[start, end]寻找合适的collection
    if (clusterStateProvider.getState(aliasName) == null) {
      // 拿到当前aliasName对应的所有collection列表
      // test_router_alias_2020-03-04, test_router_alias_2020-02-26, test_router_alias_2020-02-19, test_router_alias_2020-02-12, test_router_alias_2020-02-05
      List<String> aliasedCollections = clusterStateProvider.resolveAlias(aliasName);

      // 从collection名称中提取出时间日期
      // 2020-03-04T00:00:00Z=test_router_alias_2020-03-04,
      // 2020-02-26T00:00:00Z=test_router_alias_2020-02-26,
      // 2020-02-19T00:00:00Z=test_router_alias_2020-02-19,
      // 2020-02-12T00:00:00Z=test_router_alias_2020-02-12,
      // 2020-02-05T00:00:00Z=test_router_alias_2020-02-05
      List<Map.Entry<Instant, String>> collectionsInstant = new ArrayList<>(aliasedCollections.size());
      for (String collectionName : aliasedCollections) {
        String dateTimePart = collectionName.substring(aliasName.length() + 1);
        Instant instant = DATE_TIME_FORMATTER.parse(dateTimePart, Instant::from);
        collectionsInstant.add(new AbstractMap.SimpleImmutableEntry<>(instant, collectionName));
      }

      // 根据查询时间找出合理的collection
      Instant startI = Instant.ofEpochMilli(start);
      Instant endI = Instant.ofEpochMilli(end);
      for (Map.Entry<Instant, String> entry : collectionsInstant) {
        Instant colStartTime = entry.getKey();
        if (!endI.isBefore(colStartTime)) {
          collections.add(entry.getValue());
          System.out.println("find collection: " + entry.getValue());
          if (!startI.isBefore(colStartTime)) {
            break;
          }
        }
      }
    } else {
      collections.add(aliasName);
    }
    System.out.println("query " + collections);
    return collections;
  }

  public void run() throws Exception {
    try {
      // [2020-03-07 2020-03-10]
      long start = 1583538686312L;
      long end = 1583797886000L;
      String aliasName = "test_router_alias";
      String collections = StrUtils.join(findCollection(aliasName, start, end), ',');
      QueryResponse res = cloudSolrClient.query(collections, new SolrQuery("*:*"));
      for (SolrDocument sd : res.getResults()) {
        System.out.println(sd.get("id") + " " + sd.get("gmtCreate_l"));
      }
    } finally {
      cloudSolrClient.close();
    }
  }

  public static void main(String[] args) throws Exception {
    SolrDemo solrDemo = new SolrDemo();
    solrDemo.run();
    solrDemo.close();
  }
}