#每日一记# 因 inode 不足导致数据库登陆报错相关问题
  

sailyang 2952

{{ttag.title}}
本帖最后由 sailyang 于 2021-2-1 15:06 编辑

错误如下所示:
UDI-09925: operation generated ORACLE error 9925
ORA-09925: Unable to create audit trail file
Linux Error: 28: No space left on device
Additional information: 9925
Username: UDI-00005: unexpected End-Of-File encountered while reading input


    稍后,使用 SQLplus / as sysdba 登陆数据库时,也发生一样的错误。报错提示很明显,无法创建审计文件,空间不足,当数据库使用 sysdba 身份登陆数据库时,默认会进行审计记录,往操作系统目录下写审计文件,当空间不足时便无法写入文件。


    但是当查看文件系统使用率时发现才 66% 还有 51G 空间,DBA 便直接进入到 dump 审计目录下尝试直接 touch 文件,直接报错 “No space left on device”,/u01/app/oracle/** 下写不进数据,自然登陆会报错。
出现这种问题一般有两种情况要么是文件系统只读,要么是文件系统的 inode 节点达到上限了。文件系统只读有可能是挂载存储时的一种保护机制,当存储使用量达到一个上限值时会进行写保护使其变为只读模式。本次问题是inode节点达到上限无法写入新文件而导致的问题。

inode 是什么?
理解 inode,要从文件储存说起。文件储存在硬盘上,硬盘的最小存储单位叫做"扇区"(Sector)。每个扇区储存 512 字节(相当于0.5KB)。操作系统读取硬盘的时候,不会一个个扇区地读取,这样效率太低,而是一次性连续读取多个扇区,即一次性读取一个"块"(block)。这种由多个扇区组成的"块",是文件存取的最小单位。“块"的大小,最常见的是 4KB,即连续八个 sector 组成一个 block。文件数据都储存在"块"中,那么很显然,我们还必须找到一个地方储存文件的元信息,比如文件的创建者、文件的创建日期、文件的大小等等。这种储存文件元信息的区域就叫做 inode,中文译名为"索引节点”。每一个文件都有对应的 inode,里面包含了与该文件有关的一些信息。
可以用 stat 命令,查看某个文件或者文件夹的 inode 信息,第一行则包含文件名,具体如下图所示:
inode 也会消耗硬盘空间,每个存储设备(例如硬盘)或存储设备的分区被格式化为文件系统后,应该有两部分。一部分是数据区 Block,Block 是用来存储数据;另一部分是 inode 区(inode table),存放 inode 所包含的信息。inode 为每个文件进行信息索引,所以就有了 inode的数值。操作系统根据指令,能通过inode值最快的找到相对应的文件。每个 inode 节点的大小,一般是 128 字节或 256 字节。inode 节点的总数,在格式化时就给定,一般是每 1KB 或每 2KB 就设置一个 inode。假定在一块 1GB 的硬盘中,每个 inode 节点的大小为 128 字节,每 1KB 就设置一个 inode,那么 inode table 的大小就会达到 128MB,占整块硬盘的 1/8 空间(12.5%)。

而这台服务器的 Block 虽然还有剩余,但 inode 已经用满,因此在创建新目录或文件时,系统提示磁盘空间不足。inode 的数量是有限制的,每个文件对应一个 inode,那么如何查看 inode 的最大数量呢?可以使用 df -i 命令。
由于 inode 号码与文件名分离,这种机制导致了一些 Unix/Linux 系统特有的现象。
有时,文件名包含特殊字符,无法正常删除。这时,直接删除 inode 节点,就能起到删除文件的作用。

移动文件或重命名文件,只是改变文件名,不影响 inode 号码。

打开一个文件以后,系统就以 inode 号码来识别这个文件,不再考虑文件名。因此,通常来说,系统无法从 inode 号码得知文件名。

第 3 点使得软件更新变得简单,可以在不关闭软件的情况下进行更新,不需要重启。因为系统通过 inode 号码,识别运行中的文件,不通过文件名。更新的时候,新版文件以同样的文件名,生成一个新的 inode,不会影响到运行中的文件。等到下一次运行这个软件的时候,文件名就自动指向新版文件,旧版文件的 inode 则被回收。

说了这么多,大家应该对 inode 有所了解了吧,那么解决问题也就容易多了,本次问题是由于 adump 文件过多造成 inode 满了的问题,只需要删除 adump 下的文件即可。直接删除 rm -rf *,有可能因为文件数量太多而出现 Argument list too long 错误.在 Linux 下,试图传太多参数给一个系统命令(ls *; cp *; rm *; cat *; etc…)时,就会出现 Argument list too long 错误。Linux 工程师给出了如下遍历的方法慢慢的删除了文件。-n 选项表示将 xargs 生成的命令行参数,每次传递几个参数给其后面的命令执行,这里表示每九个遍历删除文件。

cd /u01/app/oracle/**/$SID/adump
ls | xargs -n 9 rm -f
当然,每九个删除可以慢慢悠悠的完成删除操作,不过最快速的办法就是直接删除 adump 然后新建 adump。下面我们来模拟一下其他目录 inode 满的情况及处理办法

# dd if=/dev/zero of=mo.img bs=5120k count=1
1+0 records in
1+0 records out
5242880 bytes (5.2 MB) copied, 0.0128262 s, 409 MB/s
# ls -lh mo.img
-rw-r--r--  1 root root 5242880 Dec 27 22:47 mo.img
# mkfs -t ext4  -F ./mo.img
mke2fs 1.42.9 (28-Dec-2013)
Discarding device blocks: done                           
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
1280 inodes, 5120 blocks
256 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=5242880
1 block group
8192 blocks per group, 8192 fragments per group
1280 inodes per group

Allocating group tables: done                           
Writing inode tables: done                           
Creating journal (1024 blocks): done
Writing superblocks and filesystem accounting information: done

# mount -o loop ./mo.img /mnt
# vi  /mnt/inode_test.sh
# cat /mnt/inode_test.sh
#!/bin/bash

for ((i = 1; ; i++))
do
   if [ $? -eq 0 ]; then
       echo  "This is file_$i" > file_$i
   else
       exit 0
   fi
done
第一次由于执行目录为 /root ,脚本 inode_test.sh 一直没有执行完毕,所生成的文件全部在 /root 下,导致 / 文件系统 inode 使用过多,这里使用 find + xargs 遍历删除了。

find ./ -name "file_*" | xargs rm -f

第二次执行,需要进入到 /mnt 执行,很快 /mnt 文件系统 inode 就会满,报错“ No space left on device”。下面看看如何删除这些文件:

[root@openGauss ~]# cd /mnt
[root@openGauss mnt]# ll
total 13
-rw-r--r-- 1 root root   146 Dec 27 21:07 inode_test.sh
drwx------ 2 root root 12288 Dec 27 21:06 lost+found
[root@openGauss mnt]# sh inode_test.sh
inode_test.sh: line 6: file_1269: No space left on device
[root@openGauss mnt]# ll|wc -l
1271
[root@openGauss mnt]# ls | xargs -n 9
file_1 file_10 file_100 file_1000 file_1001 file_1002 file_1003 file_1004 file_1005
file_1006 file_1007 file_1008 file_1009 file_101 file_1010 file_1011 file_1012 file_1013
file_1014 file_1015 file_1016 file_1017 file_1018 file_1019 file_102 file_1020 file_1021
file_1022 file_1023 file_1024 file_1025 file_1026 file_1027 file_1028 file_1029 file_103
file_1030 file_1031 file_1032 file_1033 file_1034 file_1035 file_1036 file_1037 file_1038
file_1039 file_104 file_1040 file_1041 file_1042 file_1043 file_1044 file_1045 file_1046

1、如果确认这些文件不再需要则可以直接删除上层目录,这里即 /mnt ,亦或是使用上面提到的根据文件名遍历删除“find ./ -name “file_*” | xargs rm -f ” ;

2、表示用 lsattr 列出 ./ 下面的文件名的属性,用 awk 取出名字,然后 rm -rf

# lsattr ./|awk -F"/" '{print $3}'|xargs -i rm -rf {}
3、find /mnt -type f -exec rm {} ; 或者直接在 /mnt 下 find ./ -exec rm {} ;

查找某个目录下一个月或两个月之前的文件,然后删除

# find . -type f -mtime +30 |wc -l
# find . -type f -mtime +60 |wc -l
# find . -type f -mtime +30 -exec rm -f {} \;
# find . -type f -mtime +60 -exec rm -f {} \;
inode 爆满,也可能是某些目录下存在大量的小文件导致。
大量小文件分布有两种可能:
a)一是只有一个或少量目录下存在大量小文件,这种情况可以使用如下命令来找出这个异常目录:

# find / -type

打赏鼓励作者,期待更多好文!

打赏
3人已打赏

sangfor_闪电回_小六 发表于 2021-2-1 20:49
  
您好,【每日一记】活动已升级改版,了解详情请点击:https://bbs.sangfor.com.cn/forum ... read&tid=137419
新手635176 发表于 2021-2-2 21:31
  
感谢分享,学习了
李会斌 发表于 2021-2-3 09:25
  
111111111111111
gqce 发表于 2021-2-3 10:18
  
感谢分享
暗夜星空 发表于 2021-2-10 21:18
  
多谢分享
沧海 发表于 2021-2-18 22:08
  
学习一下,感谢楼主分享!
新手252194 发表于 2021-2-22 09:57
  
感谢分享,支持一下。
暗夜星空 发表于 2021-3-6 11:32
  
多谢分享
花开荼靡_ 发表于 2021-11-24 14:46
  
发表新帖
热门标签
全部标签>
每日一问
技术盲盒
技术笔记
干货满满
技术咨询
产品连连看
新版本体验
功能体验
标准化排查
GIF动图学习
自助服务平台操作指引
通用技术
2023技术争霸赛专题
运维工具
信服课堂视频
秒懂零信任
技术晨报
用户认证
社区帮助指南
答题自测
深信服技术支持平台
安装部署配置
SDP百科
设备维护
每日一记
项目案例
玩转零信任
畅聊IT
专家问答
技术圆桌
在线直播
MVP
网络基础知识
升级
安全攻防
上网策略
测试报告
日志审计
问题分析处理
流量管理
云计算知识
原创分享
解决方案
sangfor周刊
VPN 对接
SANGFOR资讯
专家分享
技术顾问
信服故事
功能咨询
终端接入
授权
资源访问
地址转换
虚拟机
存储
迁移
加速技术
排障笔记本
产品预警公告
信服圈儿
S豆商城资讯
技术争霸赛
「智能机器人」
追光者计划
答题榜单公布
纪元平台
卧龙计划
华北区拉练
天逸直播
以战代练
山东区技术晨报
文档捉虫活动
齐鲁TV
华北区交付直播
每周精选

本版达人

新手89785...

本周建议达人

新手78183...

本周分享达人