Mybatis Error attempting to get column xx. Bad format for number '2018-09-18' in column 20(数据类型转换错误)

本文主要是介绍Mybatis Error attempting to get column xx. Bad format for number '2018-09-18' in column 20(数据类型转换错误),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文主要分享下类似问题的排查过程。

执行查询时报错,错误日志摘要:

org.springframework.dao.TransientDataAccessResourceException: 
Error attempting to get column 'create_time' from result set. Cause: java.sql.SQLException: Bad format for number '2018-09-18 19:29:02.0' in column 20.

日志提醒的很明显,列'create_time'取值失败,原因是格式不对、不是数字。
那么问题来了:我的MySQL表中,create_timedatetime类型,讲道理应该转换为java.util.Date对象,怎么会转数字呢?

排查

完整日志如下:

Caused by: java.sql.SQLException: Bad format for number '2018-09-18 19:29:02.0' in column 20.at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:965)at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:898)at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:887)at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:861)at com.mysql.jdbc.ResultSetImpl.getDoubleInternal(ResultSetImpl.java:2333)at com.mysql.jdbc.ResultSetImpl.getDoubleInternal(ResultSetImpl.java:2273)at com.mysql.jdbc.ResultSetImpl.getDouble(ResultSetImpl.java:2241)at com.mysql.jdbc.ResultSetImpl.getDouble(ResultSetImpl.java:2253)at org.apache.commons.dbcp2.DelegatingResultSet.getDouble(DelegatingResultSet.java:295)at org.apache.commons.dbcp2.DelegatingResultSet.getDouble(DelegatingResultSet.java:295)at org.dommons.db.jdbc.EssentialResultSet.getDouble(EssentialResultSet.java:216)at org.dommons.db.jdbc.EssentialResultSet.getDouble(EssentialResultSet.java:216)at org.apache.ibatis.type.DoubleTypeHandler.getNullableResult(DoubleTypeHandler.java:37)at org.apache.ibatis.type.DoubleTypeHandler.getNullableResult(DoubleTypeHandler.java:26)at org.apache.ibatis.type.BaseTypeHandler.getResult(BaseTypeHandler.java:66)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.createRowKeyForMappedProperties(DefaultResultSetHandler.java:1073)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.createRowKey(DefaultResultSetHandler.java:1030)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.applyNestedResultMappings(DefaultResultSetHandler.java:957)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.getRowValue(DefaultResultSetHandler.java:918)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.handleRowValuesForNestedResultMap(DefaultResultSetHandler.java:881)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.handleRowValues(DefaultResultSetHandler.java:328)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.handleResultSet(DefaultResultSetHandler.java:303)at org.apache.ibatis.executor.resultset.DefaultResultSetHandler.handleResultSets(DefaultResultSetHandler.java:196)at org.apache.ibatis.executor.statement.PreparedStatementHandler.query(PreparedStatementHandler.java:64)at org.apache.ibatis.executor.statement.RoutingStatementHandler.query(RoutingStatementHandler.java:79)at org.apache.ibatis.executor.SimpleExecutor.doQuery(SimpleExecutor.java:63)at org.apache.ibatis.executor.BaseExecutor.queryFromDatabase(BaseExecutor.java:326)at org.apache.ibatis.executor.BaseExecutor.query(BaseExecutor.java:156)at org.apache.ibatis.executor.CachingExecutor.query(CachingExecutor.java:109)at org.apache.ibatis.executor.CachingExecutor.query(CachingExecutor.java:83)at org.apache.ibatis.session.defaults.DefaultSqlSession.selectList(DefaultSqlSession.java:148)at org.apache.ibatis.session.defaults.DefaultSqlSession.selectList(DefaultSqlSession.java:141)at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)at java.lang.reflect.Method.invoke(Method.java:498)at org.mybatis.spring.SqlSessionTemplate$SqlSessionInterceptor.invoke(SqlSessionTemplate.java:433)

通过堆栈可以看到,Mybatis使用了DoubleTypeHandler转换了我这个create_time日期数据,用了这个Handler报错是Bad format for number就可以理解了。

那么问题变成为什么Mybatis选择了这个Handler

有个小插曲,最开始没用日志,而是主观的去判断了下问题想走走捷径:

  1. 因为这个值刚好在association中定义的,我怀疑这个标签有问题,会选择错类型转换器。还去除了association重试了下,果然没有错误了。于是莫名的开始嗨,感觉发现了惊天大咪咪。
  2. 有了1的判断,尝试在xml中显式配置jdbcTypeDATE(常见的jdbcType),重试时报错仍然存在。这个时候网上查了查没有类似资料,线索断了。只能回到日志排查源码了。

最终证明我是浪费了时间。 遇到问题还是不能太主观,有明显的日志了,还是按图索骥比较靠谱。

开启debug,F5按调用一层一层跟进去,找到异常拦截和处理的代码:org.apache.ibatis.type.BaseTypeHandler<T>.getResult(ResultSet rs, String columnName)
在这里插入图片描述
看到这段代码,可以注意到两个关键点:

  1. columnName是一个入参,也就是解析结果集可能是遍历时传入的,日志里明确提示了是create_time,应该没问题;

    Error attempting to get column create_time from result set.

  2. 回想最开始我们看到的日志,Cause后面的部分(Bad format for number ‘2018-09-18’ in column 20)是从接收的异常中拿到的。那么接下来应该进入到异常抛出的地方。
  3. 继续调试,终于找到了异常抛出类,并且发现column 20是通过findColumn获取到的; 查看sql结果集的列,发现列名、序号是对的上的。
    在这里插入图片描述

在这里我突然灵光一闪,幡然醒悟了一个思维误区:

日志中提示的一直是column create_timecolumn 20,但并没有说是在转换ResultMapcreate_time属性。也就是说理论上,ResultSet的create_time属性值,可能正被提取解析成ResultMap的任意属性。要验证这一点,直接去MybatisResultMap配置中,查看是否有多个属性的column都配置了create_time

事实证明确实如此,有个金额属性,column映射到了create_time,所以转换报错了。
在这里插入图片描述

总结

这个问题有几个关键点,如果能早些注意、或者有知识储备,解决问题会很快:

  1. column 20com.mysql.jdbc.ResultSetImpl.findColumn找到的列索引。注意,是索引,不是ResultMap中属性的顺序号,所以不要看到这个属性名,就去看这个属性类型转换有什么问题。而应该去查一查执行的sql结果集,第20列是什么内容,ResultMap中是否有多个字段的column错误配置了该列、导致类型不匹配。
  2. Mybatis选择哪个TypeHandler,默认是根据ResultMapproperty的类型来的(当然还可以显示指定)。所以如果发现TypeHandler和预想的不一样,应该意识到问题出在某个propertycolumn不匹配。

又是一个巨大的乌龙,一星期就遇到了两次,而且一次比一次离(di)奇(ji),这次已经超越MySQL ERROR 16 (42000):FUNCTION sum does not exist. Check the ‘Function Name Parsing and Resolution’,成为2019悲惨事件top1。感觉今年剩下的四个月很难熬。

解决问题过程中发现的其他类似事件,也比较有价值:https://blog.csdn.net/m0_43452671/article/details/89315225、https://blog.csdn.net/gugou123/article/details/80920431、

因为错怪了association,特意找了两篇文章再学习了下:https://www.cnblogs.com/yuan951/p/7594176.html、https://www.cnblogs.com/duanxz/p/3830509.html

这篇关于Mybatis Error attempting to get column xx. Bad format for number '2018-09-18' in column 20(数据类型转换错误)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/358900

相关文章

mybatis的整体架构

mybatis的整体架构分为三层: 1.基础支持层 该层包括:数据源模块、事务管理模块、缓存模块、Binding模块、反射模块、类型转换模块、日志模块、资源加载模块、解析器模块 2.核心处理层 该层包括:配置解析、参数映射、SQL解析、SQL执行、结果集映射、插件 3.接口层 该层包括:SqlSession 基础支持层 该层保护mybatis的基础模块,它们为核心处理层提供了良好的支撑。

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

usaco 1.2 Name That Number(数字字母转化)

巧妙的利用code[b[0]-'A'] 将字符ABC...Z转换为数字 需要注意的是重新开一个数组 c [ ] 存储字符串 应人为的在末尾附上 ‘ \ 0 ’ 详见代码: /*ID: who jayLANG: C++TASK: namenum*/#include<stdio.h>#include<string.h>int main(){FILE *fin = fopen (

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X