关于 12c GI 安装过程中,如果使用 NFS 方式提供 ASM 磁盘, 出现 ORA-15018 ORA-15072 ORA-15080 错误 (文档 ID 1945862.1)

本文主要是介绍关于 12c GI 安装过程中,如果使用 NFS 方式提供 ASM 磁盘, 出现 ORA-15018 ORA-15072 ORA-15080 错误 (文档 ID 1945862.1),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

转到底部转到底部

文档内容

症状
 更改
 原因
 解决方案
 参考

适用于:

Oracle Database - Enterprise Edition - 版本 12.1.0.1 和更高版本
本文档所含信息适用于所有平台

症状

12c GI 安装过程中,如果 ASM 磁盘是基于 NFS 的,执行 root.sh 会遇到以下错误:

# /u01/app/12.1.0/grid/root.sh
Performing root user operation for Oracle 12c
......
CRS-2672: Attempting to start 'ora.cssd' on 'racnode1'
CRS-2672: Attempting to start 'ora.diskmon' on 'racnode1'
CRS-2676: Start of 'ora.diskmon' on 'racnode1' succeeded
CRS-2676: Start of 'ora.cssd' on 'racnode1' succeeded

Disk Group DATA creation failed with the following message:
ORA-15018: diskgroup cannot be created
ORA-15072: command requires at least 1 regular failure groups, discovered only 0
ORA-15080: synchronous I/O operation failed to read block 0 of disk 1 in disk group
ORA-15080: synchronous I/O operation failed to read block 0 of disk 0 in disk group DATA

2013/05/02 10:22:13 CLSRSC-184: Configuration of ASM failed

2013/05/02 10:22:22 CLSRSC-258: Failed to configure and start ASM

Died at /u01/app/12.1.0/grid/crs/install/crsinstall.pm line 1976.
The command '/u01/app/12.1.0/grid/perl/bin/perl -I/u01/app/12.1.0/grid/perl/lib -I/u01/app/12.1.0/grid/crs/install /u01/app/12.1.0/grid/crs/install/rootcrs.pl ' execution failed


磁盘 /asm/disk1和/asm/disk2 是通过 NFS 挂载的,被磁盘组 DATA 使用。它们权限没有问题,经过dd命令测试,读写操作也都正常。

mount option on the cluster is like:
192.168.1.1:/disks/12c on /asm type nfs (rw,tcp,vers=3,rsize=32768,wsize=32768,bg,hard,nointr,actimeo=0,timeo=600,addr=192.168.1.1)

[root@racnode1 asm]# ls -l /asm
total 10240020
-rw-rw----.  1 oracle oinstall 5242880000 May  2 00:14 disk1
-rw-rw----.  1 oracle oinstall 5242880000 May  2 00:12 disk2

 

更改

新环境安装。

原因

原因是作为 12c 的新功能 - DNFS(direct NFS)默认是启用的,并且 DNFS 使用的网络端口大于 1024,所以当使用 exports 的方式的时候,由于申请的端口是小于 1024 的而失败。

在 export man 的帮助手册中:
Exports 中“Secure”参数是默认启用的,这个选项会导致申请端口的过程扫描的是小于 1024 的端口,导致 exports 的方式挂载 DNFS 会遇到上面的错误。我们需要关掉它,指定 insecure 参数。

这个参数不会影响全部的 NAS 服务器,但是由于端口范围限制的改变,需要重新使用 'insecure' 的方式进行重新挂载,如下: 
从:(rw,no_root_squash)
修改为:
(rw,no_root_squash,insecure)

DNFS 相关信息,在线文档中也有详细描述:

Oracle® Grid Infrastructure Installation Guide
12c Release 1 (12.1) for Linux
7 Configuring Storage for Oracle Grid Infrastructure and Oracle RAC
About Direct NFS Client Storage

解决方案

在 NFS 服务器上使用 'insecure' 的方式来进行文件系统的导出,重新运行 root.sh ,这样 12c 的 GI 安装会正常结束了。

参考


这篇关于关于 12c GI 安装过程中,如果使用 NFS 方式提供 ASM 磁盘, 出现 ORA-15018 ORA-15072 ORA-15080 错误 (文档 ID 1945862.1)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/382022

相关文章

浅析Spring Security认证过程

类图 为了方便理解Spring Security认证流程,特意画了如下的类图,包含相关的核心认证类 概述 核心验证器 AuthenticationManager 该对象提供了认证方法的入口,接收一个Authentiaton对象作为参数; public interface AuthenticationManager {Authentication authenticate(Authenti

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

作业提交过程之HDFSMapReduce

作业提交全过程详解 (1)作业提交 第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。 第2步:Client向RM申请一个作业id。 第3步:RM给Client返回该job资源的提交路径和作业id。 第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。 第5步:Client提交完资源后,向RM申请运行MrAp

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件