资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

SpringBoot+Mybatis+Druid+PageHelper如何实现多数据源并分页

这篇文章主要为大家展示了“Spring Boot+Mybatis+Druid+PageHelper如何实现多数据源并分页”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Spring Boot+Mybatis+Druid+PageHelper如何实现多数据源并分页”这篇文章吧。

让客户满意是我们工作的目标,不断超越客户的期望值来自于我们对这个行业的热爱。我们立志把好的技术通过有效、简单的方式提供给客户,将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,公司提供的服务项目有:主机域名、虚拟空间、营销软件、网站建设、大化网站维护、网站推广。

Druid介绍和使用

在使用Druid之前,先来简单的了解下Druid。

Druid是一个数据库连接池。Druid可以说是目前最好的数据库连接池!因其优秀的功能、性能和扩展性方面,深受开发人员的青睐。

Druid已经在阿里巴巴部署了超过600个应用,经过一年多生产环境大规模部署的严苛考验。Druid是阿里巴巴开发的号称为监控而生的数据库连接池!

同时Druid不仅仅是一个数据库连接池,Druid 核心主要包括三部分:

  • 基于Filter-Chain模式的插件体系。

  • DruidDataSource 高效可管理的数据库连接池。

  • SQLParser

Druid的主要功能如下:

  1. 是一个高效、功能强大、可扩展性好的数据库连接池。

  2. 可以监控数据库访问性能。

  3. 数据库密码加密

  4. 获得SQL执行日志

  5. 扩展JDBC

介绍方面这块就不再多说,具体的可以看官方文档。

那么开始介绍Druid如何使用。

首先是Maven依赖,只需要添加druid这一个jar就行了。


 com.alibaba
 druid
 1.1.8
 

配置方面,主要的只需要在application.properties或application.yml添加如下就可以了。

说明:因为这里我是用来两个数据源,所以稍微有些不同而已。Druid 配置的说明在下面中已经说的很详细了,这里我就不在说明了。

## 默认的数据源

master.datasource.url=jdbc:MySQL://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=true
master.datasource.username=root
master.datasource.password=123456
master.datasource.driverClassName=com.mysql.jdbc.Driver


## 另一个的数据源
cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8
cluster.datasource.username=root
cluster.datasource.password=123456
cluster.datasource.driverClassName=com.mysql.jdbc.Driver

# 连接池的配置信息 
# 初始化大小,最小,最大 
spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
spring.datasource.initialSize=5 
spring.datasource.minIdle=5 
spring.datasource.maxActive=20 
# 配置获取连接等待超时的时间 
spring.datasource.maxWait=60000 
# 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 
spring.datasource.timeBetweenEvictionRunsMillis=60000 
# 配置一个连接在池中最小生存的时间,单位是毫秒 
spring.datasource.minEvictableIdleTimeMillis=300000 
spring.datasource.validationQuery=SELECT 1 FROM DUAL 
spring.datasource.testWhileIdle=true 
spring.datasource.testOnBorrow=false 
spring.datasource.testOnReturn=false 
# 打开PSCache,并且指定每个连接上PSCache的大小 
spring.datasource.poolPreparedStatements=true 
spring.datasource.maxPoolPreparedStatementPerConnectionSize=20 
# 配置监控统计拦截的filters,去掉后监控界面sql无法统计,'wall'用于防火墙 
spring.datasource.filters=stat,wall,log4j 
# 通过connectProperties属性来打开mergeSql功能;慢SQL记录 
spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000

成功添加了配置文件之后,我们再来编写Druid相关的类。

首先是MasterDataSourceConfig.java这个类,这个是默认的数据源配置类。

@Configuration
@MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "masterSqlSessionFactory")
public class MasterDataSourceConfig {

 static final String PACKAGE = "com.pancm.dao.master";
 static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml";

 @Value("${master.datasource.url}") 
 private String url; 
 
 @Value("${master.datasource.username}") 
 private String username; 
 
 @Value("${master.datasource.password}") 
 private String password; 
 
 @Value("${master.datasource.driverClassName}") 
 private String driverClassName; 
 
 
 
 
 @Value("${spring.datasource.initialSize}") 
 private int initialSize; 
 
 @Value("${spring.datasource.minIdle}") 
 private int minIdle; 
 
 @Value("${spring.datasource.maxActive}") 
 private int maxActive; 
 
 @Value("${spring.datasource.maxWait}") 
 private int maxWait; 
 
 @Value("${spring.datasource.timeBetweenEvictionRunsMillis}") 
 private int timeBetweenEvictionRunsMillis; 
 
 @Value("${spring.datasource.minEvictableIdleTimeMillis}") 
 private int minEvictableIdleTimeMillis; 
 
 @Value("${spring.datasource.validationQuery}") 
 private String validationQuery; 
 
 @Value("${spring.datasource.testWhileIdle}") 
 private boolean testWhileIdle; 
 
 @Value("${spring.datasource.testOnBorrow}") 
 private boolean testOnBorrow; 
 
 @Value("${spring.datasource.testOnReturn}") 
 private boolean testOnReturn; 
 
 @Value("${spring.datasource.poolPreparedStatements}") 
 private boolean poolPreparedStatements; 
 
 @Value("${spring.datasource.maxPoolPreparedStatementPerConnectionSize}") 
 private int maxPoolPreparedStatementPerConnectionSize; 
 
 @Value("${spring.datasource.filters}") 
 private String filters; 
 
 @Value("{spring.datasource.connectionProperties}") 
 private String connectionProperties; 
 
 
 @Bean(name = "masterDataSource")
 @Primary 
 public DataSource masterDataSource() {
 DruidDataSource dataSource = new DruidDataSource();
 dataSource.setUrl(url); 
 dataSource.setUsername(username); 
 dataSource.setPassword(password); 
 dataSource.setDriverClassName(driverClassName); 
 
 //具体配置 
 dataSource.setInitialSize(initialSize); 
 dataSource.setMinIdle(minIdle); 
 dataSource.setMaxActive(maxActive); 
 dataSource.setMaxWait(maxWait); 
 dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis); 
 dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis); 
 dataSource.setValidationQuery(validationQuery); 
 dataSource.setTestWhileIdle(testWhileIdle); 
 dataSource.setTestOnBorrow(testOnBorrow); 
 dataSource.setTestOnReturn(testOnReturn); 
 dataSource.setPoolPreparedStatements(poolPreparedStatements); 
 dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize); 
 try { 
 dataSource.setFilters(filters); 
 } catch (SQLException e) { 
 e.printStackTrace();
 } 
 dataSource.setConnectionProperties(connectionProperties); 
 return dataSource;
 }

 @Bean(name = "masterTransactionManager")
 @Primary
 public DataSourceTransactionManager masterTransactionManager() {
 return new DataSourceTransactionManager(masterDataSource());
 }

 @Bean(name = "masterSqlSessionFactory")
 @Primary
 public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)
 throws Exception {
 final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
 sessionFactory.setDataSource(masterDataSource);
 sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
 .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
 return sessionFactory.getObject();
 }
}

其中这两个注解说明下:

**@Primary** :标志这个 Bean 如果在多个同类 Bean 候选时,该 Bean
优先被考虑。多数据源配置的时候注意,必须要有一个主数据源,用 @Primary 标志该 Bean。

**@MapperScan**: 扫描 Mapper 接口并容器管理。

需要注意的是sqlSessionFactoryRef 表示定义一个唯一 SqlSessionFactory 实例。

上面的配置完之后,就可以将Druid作为连接池使用了。但是Druid并不简简单单的是个连接池,它也可以说是一个监控应用,它自带了web监控界面,可以很清晰的看到SQL相关信息。

在SpringBoot中运用Druid的监控作用,只需要编写StatViewServlet和WebStatFilter类,实现注册服务和过滤规则。这里我们可以将这两个写在一起,使用**@Configuration**和**@Bean**。

为了方便理解,相关的配置说明也写在代码中了,这里就不再过多赘述了。

代码如下:

@Configuration
public class DruidConfiguration {

 @Bean
 public ServletRegistrationBean druidStatViewServle() {
 //注册服务
 ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(
 new StatViewServlet(), "/druid/*");
 // 白名单(为空表示,所有的都可以访问,多个IP的时候用逗号隔开)
 servletRegistrationBean.addInitParameter("allow", "127.0.0.1");
 // IP黑名单 (存在共同时,deny优先于allow) 
 servletRegistrationBean.addInitParameter("deny", "127.0.0.2");
 // 设置登录的用户名和密码
 servletRegistrationBean.addInitParameter("loginUsername", "pancm");
 servletRegistrationBean.addInitParameter("loginPassword", "123456");
 // 是否能够重置数据.
 servletRegistrationBean.addInitParameter("resetEnable", "false");
 return servletRegistrationBean;
 }

 @Bean
 public FilterRegistrationBean druidStatFilter() {
 FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean(
 new WebStatFilter());
 // 添加过滤规则
 filterRegistrationBean.addUrlPatterns("/*");
 // 添加不需要忽略的格式信息
 filterRegistrationBean.addInitParameter("exclusions",
 "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*");
 System.out.println("druid初始化成功!");
 return filterRegistrationBean;
 }
}

编写完之后,启动程序,在浏览器输入:http://127.0.0.1:8084/druid/index.html ,然后输入设置的用户名和密码,便可以访问Web界面了。

多数据源配置

在进行多数据源配置之前,先分别在springBoot和springBoot_test的mysql数据库中执行如下脚本。

-- springBoot库的脚本

CREATE TABLE `t_user` (
 `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增id',
 `name` varchar(10) DEFAULT NULL COMMENT '姓名',
 `age` int(2) DEFAULT NULL COMMENT '年龄',
 PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT CHARSET=utf8

-- springBoot_test库的脚本

CREATE TABLE `t_student` (
 `id` int(11) NOT NULL AUTO_INCREMENT,
 `name` varchar(16) DEFAULT NULL,
 `age` int(11) DEFAULT NULL,
 PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8

注:为了偷懒,将两张表的结构弄成一样了!不过不影响测试!

在application.properties中已经配置这两个数据源的信息,上面已经贴出了一次配置,这里就不再贴了。

这里重点说下 第二个数据源的配置。和上面的MasterDataSourceConfig.java差不多,区别在与没有使用**@Primary** 注解和名称不同而已。需要注意的是MasterDataSourceConfig.java对package和mapper的扫描是精确到目录的,这里的第二个数据源也是如此。那么代码如下:

@Configuration
@MapperScan(basePackages = ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "clusterSqlSessionFactory")
public class ClusterDataSourceConfig {

 static final String PACKAGE = "com.pancm.dao.cluster";
 static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml";

 @Value("${cluster.datasource.url}")
 private String url;

 @Value("${cluster.datasource.username}")
 private String username;

 @Value("${cluster.datasource.password}")
 private String password;

 @Value("${cluster.datasource.driverClassName}")
 private String driverClass;

 // 和MasterDataSourceConfig一样,这里略

 @Bean(name = "clusterDataSource")
 public DataSource clusterDataSource() {
 DruidDataSource dataSource = new DruidDataSource();
 dataSource.setUrl(url); 
 dataSource.setUsername(username); 
 dataSource.setPassword(password); 
 dataSource.setDriverClassName(driverClass); 
 
 // 和MasterDataSourceConfig一样,这里略 ...
 return dataSource;
 }

 @Bean(name = "clusterTransactionManager")
 public DataSourceTransactionManager clusterTransactionManager() {
 return new DataSourceTransactionManager(clusterDataSource());
 }

 @Bean(name = "clusterSqlSessionFactory")
 public SqlSessionFactory clusterSqlSessionFactory(@Qualifier("clusterDataSource") DataSource clusterDataSource)
 throws Exception {
 final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
 sessionFactory.setDataSource(clusterDataSource);
 sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.MAPPER_LOCATION));
 return sessionFactory.getObject();
 }
}

成功写完配置之后,启动程序,进行测试。

分别在springBoot和springBoot_test库中使用接口进行添加数据。

t_user

POST http://localhost:8084/api/user
{"name":"张三","age":25}
{"name":"李四","age":25}
{"name":"王五","age":25}

t_student

POST http://localhost:8084/api/student
{"name":"学生A","age":16}
{"name":"学生B","age":17}
{"name":"学生C","age":18}

成功添加数据之后,然后进行调用不同的接口进行查询。

请求:

GET http://localhost:8084/api/user?name=李四

返回:

{
 "id": 2,
 "name": "李四",
 "age": 25
}

请求:

 GET http://localhost:8084/api/student?name=学生C

返回:

{
 "id": 1,
 "name": "学生C",
 "age": 16
}

通过数据可以看出,成功配置了多数据源了。

PageHelper 分页实现

PageHelper是Mybatis的一个分页插件,非常的好用!这里强烈推荐!!!

PageHelper的使用很简单,只需要在Maven中添加pagehelper这个依赖就可以了。
Maven的依赖如下:

 
  com.github.pagehelper
  pagehelper-spring-boot-starter
  1.2.3
 

注:这里我是用springBoot版的!也可以使用其它版本的。

添加依赖之后,只需要添加如下配置或代码就可以了。

第一种,在application.propertiesapplication.yml添加

 pagehelper:
 helperDialect: mysql
 offsetAsPageNum: true
 rowBoundsWithCount: true
 reasonable: false

第二种,在mybatis.xml配置中添加

 
 
 
 
 
 
 
  
  
  
  helperDialect=mysql
  offsetAsPageNum=true
  rowBoundsWithCount=true
  reasonable=false
  
  
  
 
 
 

第三种,在代码中添加,使用**@Bean**注解在启动程序的时候初始化。

 @Bean
 public PageHelper pageHelper(){
 PageHelper pageHelper = new PageHelper();
 Properties properties = new Properties();
 //数据库
 properties.setProperty("helperDialect", "mysql");
 //是否将参数offset作为PageNum使用
 properties.setProperty("offsetAsPageNum", "true");
 //是否进行count查询
 properties.setProperty("rowBoundsWithCount", "true");
 //是否分页合理化
 properties.setProperty("reasonable", "false");
 pageHelper.setProperties(properties);
 }

因为这里我们使用的是多数据源,所以这里的配置稍微有些不同。我们需要在sessionFactory这里配置。这里就对MasterDataSourceConfig.java进行相应的修改。在masterSqlSessionFactory方法中,添加如下代码。

 @Bean(name = "masterSqlSessionFactory")
 @Primary
 public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)
  throws Exception {
 final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
 sessionFactory.setDataSource(masterDataSource);
 sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
  .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
 //分页插件
 Interceptor interceptor = new PageInterceptor();
 Properties properties = new Properties();
 //数据库
 properties.setProperty("helperDialect", "mysql");
 //是否将参数offset作为PageNum使用
 properties.setProperty("offsetAsPageNum", "true");
 //是否进行count查询
 properties.setProperty("rowBoundsWithCount", "true");
 //是否分页合理化
 properties.setProperty("reasonable", "false");
 interceptor.setProperties(properties);
 sessionFactory.setPlugins(new Interceptor[] {interceptor});
 
 return sessionFactory.getObject();
 }

注:其它的数据源也想进行分页的时候,参照上面的代码即可。

这里需要注意的是reasonable参数,表示分页合理化,默认值为false。如果该参数设置为 true 时,pageNum<=0 时会查询第一页,pageNum>pages(超过总数时),会查询最后一页。默认false 时,直接根据参数进行查询。

设置完PageHelper 之后,使用的话,只需要在查询的sql前面添加PageHelper.startPage(pageNum,pageSize); ,如果是想知道总数的话,在查询的sql语句后买呢添加 page.getTotal()就可以了。

代码示例:

public List findByListEntity(T entity) {
 List list = null;
 try {
  Page page =PageHelper.startPage(1,2); 
  System.out.println(getClassName(entity)+"设置第一页两条数据!");
  list = getMapper().findByListEntity(entity);
  System.out.println("总共有:"+page.getTotal()+"条数据,实际返回:"+list.size()+"两条数据!");
 } catch (Exception e) {
  logger.error("查询"+getClassName(entity)+"失败!原因是:",e);
 }
 return list;
 }

代码编写完毕之后,开始进行最后的测试。

查询t_user表的所有的数据,并进行分页。

请求:

GET http://localhost:8084/api/user

返回:

[
 {
 "id": 1,
 "name": "张三",
 "age": 25
 },
 {
 "id": 2,
 "name": "李四",
 "age": 25
 }
]

控制台打印:

开始查询...
User设置第一页两条数据!
2018-04-27 19:55:50.769 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT   : ==>  Preparing: SELECT count(0) FROM t_user WHERE 1 = 1
2018-04-27 19:55:50.770 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT   : ==> Parameters:
2018-04-27 19:55:50.771 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT   : <==      Total: 1
2018-04-27 19:55:50.772 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity  : ==>  Preparing: select id, name, age from t_user where 1=1 LIMIT ?
2018-04-27 19:55:50.773 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity  : ==> Parameters: 2(Integer)
2018-04-27 19:55:50.774 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity  : <==      Total: 2
总共有:3条数据,实际返回:2两条数据!

查询t_student表的所有的数据,并进行分页。

请求:

GET http://localhost:8084/api/student

返回:

[
 {
 "id": 1,
 "name": "学生A",
 "age": 16
 },
 {
 "id": 2,
 "name": "学生B",
 "age": 17
 }
]

控制台打印:

开始查询...
Studnet设置第一页两条数据!
2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT         : ==>  Preparing: SELECT count(0) FROM t_student WHERE 1 = 1
2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT         : ==> Parameters:
2018-04-27 19:54:56.156 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT         : <==      Total: 1
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity      : ==>  Preparing: select id, name, age from t_student where 1=1 LIMIT ?
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity      : ==> Parameters: 2(Integer)
2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity      : <==      Total: 2
总共有:3条数据,实际返回:2两条数据!

查询完毕之后,我们再来看Druid 的监控界面。在浏览器输入:http://127.0.0.1:8084/druid/index.html

Spring Boot+Mybatis+Druid+PageHelper如何实现多数据源并分页

可以很清晰的看到操作记录!

以上是“Spring Boot+Mybatis+Druid+PageHelper如何实现多数据源并分页”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


网站题目:SpringBoot+Mybatis+Druid+PageHelper如何实现多数据源并分页
当前地址:http://cdkjz.cn/article/pisdcs.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

大客户专线   成都:13518219792   座机:028-86922220