众所周知,main 函数为 unix like 系统上可执行文件的"入口",然而这个入口并不是指链接器设置的程序起始地址,后者通常是一个启动例程,它从内核取得命令行参数和环境变量值后,为调用 main 函数做好安排。main 函数原型为:
int main (int argc, char *argv[]);
这是 ISO C 和 POSIX.1 指义的,当然还存在下面几种不太标准的 main 原型:
void main (int argc, char *argv[]);
void main (void);
int main (void);
不带 argc & argv 参数的表示不打算接受命令行参数;void 返回值的表示不打算返回一个结束状态。
进程的结束状态码与 main 的返回值关系如下:
main 声明为 int 类型返回值
main 声明为 void 类型返回值 (warning: return type of ‘main’ is not ‘int’)
测试机为 CentOS 7.9,gcc 版本 4.8.5,每一项的 warning 信息就是基于这两个版本测得。未定义的场景中,均返回 25 这个魔数。
开了 -std=c99 后大部分场景没有改善,仅 main 返回值被声明为 int 类型且在结束前没有调用任何 return 或 exit 时 (第 1 项第 4 小项) 发生了显著变化:从未定义变为返回 0。
进程有 8 种终止方式,其中 5 种为正常终止:
另有 3 种为异常终止:
下面重点看一下 3 个 exit 函数:
#include <unistd.h>
void _exit(int status);
#include <stdlib.h>
void exit(int status);
void _Exit(int status);
声明差别不大,_exit 与 _Exit 分别是 POSIX.1 与 ISO C 的标准,不过可以将它们视为等价,都直接进入内核。exit 则在它们的基础上做了一些清理工作,主要包含以下几个方面:
关于标准 I/O 库,请参考之前写的这篇文章:《[apue] 标准 I/O 库那些事儿》。
有了上面的铺垫,可以这样理解可执行程序的启动例程与 main 之间的关系:
...
exit (main (argc, argv));
即 main 的返回值是直接传递给 exit 的 status 参数作为进程结束状态的。
关于终止处理程序,一般通过 atexit 函数进行注册:
#include <stdlib.h>
int atexit(void (*function)(void));
这里的 function 参数就是希望在 exit 时被调用的清理程序,关于终止处理程序,有下面几点需要注意:
下面这个例子验证了调用次数与 FILO 特性:
#include "../apue.h"
void do_dirty_work ()
{
printf ("doing dirty works!\n");
}
void bye ()
{
printf ("bye, forks~\n");
}
void times ()
{
static int counter = 32;
printf ("times %d\n", counter--);
}
int main ()
{
int ret = 0;
ret = atexit (do_dirty_work);
if (ret != 0)
err_sys ("atexit");
ret = atexit (bye);
if (ret != 0)
err_sys ("bye1");
ret = atexit (bye);
if (ret != 0)
err_sys ("bye2");
for (int i=0; i<32; i++)
{
ret = atexit (times);
if (ret != 0)
err_sys ("times");
}
printf ("main is done!\n");
return 0;
}
执行它会有如下输出:
$ ./atexit
main is done!
times 32
times 31
times 30
times 29
times 28
times 27
times 26
times 25
times 24
times 23
times 22
times 21
times 20
times 19
times 18
times 17
times 16
times 15
times 14
times 13
times 12
times 11
times 10
times 9
times 8
times 7
times 6
times 5
times 4
times 3
times 2
times 1
bye, forks~
bye, forks~
doing dirty works!
在 bye 中增加一些 exit 调用,观察是否会有变化:
void bye ()
{
printf ("bye, forks~\n");
exit (2); // no effect
printf ("after exit (2)\n");
}
结果与之前完全一致,不过进程结束状态变为了 2:
$ ./atexit
main is done!
times 32
...
times 1
bye, forks~
bye, forks~
doing dirty works!
> echo $?
2
可见 exit 并非没有生效,一个合理的推断是:第二次进入 exit 后,继续处理之前没处理完的清理程序,使得输出看起来就像"没生效"一样。真正的 _exit 是被第二次进入 bye 的那个 exit 所调用,对程序稍加改动来看个明白:
int exit_status = 10;
void bye ()
{
printf ("bye, forks~\n");
exit (exit_status++); // no effect
printf ("after exit (%d)\n", exit_status-1);
}
为了便于区别,这里给的初始值为 10,每调用一次 bye,exit_status 递增 1,如果最后进程结束状态码为 10 就证明是第一次 exit 结束了进程,否则就是第二次。
$ ./atexit
main is done!
times 32
...
times 1
bye, forks~
bye, forks~
doing dirty works!
> echo $?
11
结论已经非常明显,之前的猜测成立!如此就可以合理的推断 exit 调用清理程序后,会将其从 FILO 结构中移除,从而避免再次调用,进而引发无限循环。
下面试试 _exit 的效果:
void bye ()
{
printf ("bye, forks~\n");
_exit (3); // quit and no other atexit function running anymore !
printf ("after _exit (3)\n");
}
改为 _exit 后输出发生了截断:
$ ./atexit
main is done!
times 32
...
times 1
bye, forks~
$ echo $?
3
进入 bye 处理程序后进程就终止了,后续的处理程序不再调用。检查进程结束状态码为 3,正好是 _exit 的 status 参数。
将上面 exit 和 _exit 全都打开后,_exit 反而不起作用了:
void bye ()
{
printf ("bye, forks~\n");
exit (2); // no effect
printf ("after exit (2)\n");
_exit (3); // no effect
printf ("after _exit (3)\n");
}
经过上面的分析,想必读者已经知道了答案,正确的做法是将 _exit 放在 exit 前面,这样才能避免进入 exit 之后不再返回,从而被忽略。
最后再试一种场景,就是在处理器中继续调用 atexit 注册新的处理器,观察新的处理器是否能被调用,参考下面这个例子:
#include "../apue.h"
void do_dirty_work ()
{
printf ("doing dirty works!\n");
}
void bye ()
{
printf ("bye, forks~\n");
int ret = atexit (do_dirty_work);
if (ret != 0)
err_sys ("do_dirty_work");
}
int main ()
{
int ret = 0;
ret = atexit (bye);
if (ret != 0)
err_sys ("bye");
printf ("main is done!\n");
return 0;
}
先注册处理器 bye,在其被回调时再注册处理器 do_dirty_work,结果是两个处理器都能被回调:
$ ./atexit_term
main is done!
bye, forks~
doing dirty works!
如果注册的处理器形成循环会如何?参考下面的例子:
#include "../apue.h"
extern void bye ();
void do_dirty_work ()
{
printf ("doing dirty works!\n");
int ret = atexit (bye);
if (ret != 0)
err_sys ("bye2");
}
void bye ()
{
printf ("bye, forks~\n");
int ret = atexit (do_dirty_work);
if (ret != 0)
err_sys ("do_dirty_work");
}
int main ()
{
int ret = 0;
ret = atexit (bye);
if (ret != 0)
err_sys ("bye");
printf ("main is done!\n");
return 0;
}
在 do_dirty_work 中再次注册 bye 作为处理器,重新编译后运行,发现程序果然陷入了死循环:
$ ./atexit_term
main is done!
bye, forks~
doing dirty works!
bye, forks~
doing dirty works!
bye, forks~
doing dirty works!
bye, forks~
doing dirty works!
bye, forks~
doing dirty works!
bye, forks~
...
doing dirty works!
bye, forks~
doing dirty works!
bye, forks~
doing dirty works!
bye, forks~
doing dirty works!
bye, forks~
doing dirty works!^C
直到输入 Ctrl+C 才能退出,看起来 atexit 并不能检测这种情况,需要程序员自己避免调用环的形成,好在这种场景并不多见。
ISO C 与 POSIX.1 都要求 argv[argc] 参数为 NULL,因此下面两种遍历命令行参数的方式是等价的:
int i;
for (i=0; i<argc; ++ i)
...
for (i=0; argv[i]!=NULL; ++i)
...
环境变量也有类似的约定。大多数 unix like 都支持以下的 main 声明:
int main (int argc, char* argv[], char* envp[]);
将环境变量放在 main 第三个参数上,不过标准的 ISO C 和 POSIX.1 不支持,它们规定使用单独的全局变量访问环境变量:
extern char **environ;
由于没有类似 argc 的参数来说明参数表长度,环境变量的遍历只能依赖结尾 NULL 的方式。
环境变量的内容通常为以下形式:
name=value
name 通常大写,不过这只是一种惯例,内核并不检查环境变量内容,它的解释完全取决于各个应用程序。例如 PATH 变量可以通过冒号指定多个路径:
PATH=/home/users/yunhai01/.local/bin:/home/users/yunhai01/bin:/usr/lib64/qt-3.3/bin:/usr/local/bin:/usr/bin:/opt/bin:/home/opt/bin:/usr/local/sbin:/usr/sbin:/opt/bin:/home/opt/bin
ISO C & POSIX.1 定义了一组处理环境变量的函数:
#include <stdlib.h>
[ISO C/POSIX.1] char *getenv(const char *name);
[POSIX.1] int setenv(const char *name, const char *value, int overwrite);
[POSIX.1] int unsetenv(const char *name);
[XSI] int putenv(char *string);
[linux] int clearenv(void);
它们属于的标准在函数声明前做了标识。其中:
关于增删改环境变量导致的空间变化问题,下一节详细说明。
最后需要说明的是,对环境变量的更改只对当前进程及之后启动的子进程生效,不对父进程及之前启动的子进程产生影响。
直接上图:
上面是一种典型的内存排布,只是举个例子,并不代表所有平台和架构都以此这种方式安排其存储空间,图中的内存地址更是以 Linux x86 处理器为例的。
其中:
其中除堆和栈外,其它段都变化很小或不变,所以设置堆和栈对向增长是非常聪明的做法。当向下增长的栈与向上增长的堆相遇时,进程的地址空间就用光了。
下面的程序验证了 C 程序的内存布局:
#include "../apue.h"
int data1 = 2;
int data2 = 3;
int data3;
int data4;
int main (int argc, char *argv[])
{
char buf1[1024] = { 0 };
char buf2[1024] = { 0 };
char *buf3 = malloc(1024);
char *buf4 = malloc(1024);
printf ("onstack %p, %p\n",
buf1,
buf2);
extern char ** environ;
printf ("env %p\n", environ);
printf ("arg %p\n", argv);
printf ("onheap %p, %p\n",
buf3,
buf4);
free (buf3);
free (buf4);
printf ("on bss %p, %p\n",
&data3,
&data4);
printf ("on init %p, %p\n",
&data1,
&data2);
printf ("on code %p\n", main);
return 0;
}
在 linux 上编译运行:
$ ./layout
onstack 0x7ffe31b752a0, 0x7ffe31b74ea0
env 0x7ffe31b757b8
arg 0x7ffe31b757a8
onheap 0x1984010, 0x1984420
on bss 0x6066b8, 0x6066bc
on init 0x606224, 0x606228
on code 0x40179d
虽然具体地址和书上讲的有出入,但是总体布局确实是 code -> init -> bss -> heap -> stack -> env / arg 的顺序没错。
size 命令用于报告可执行文件的 code/data/bss 段的长度:
$ size ./layout ./layout_s /bin/sh
text data bss dec hex filename
20073 2152 80 22305 5721 ./layout
802535 7292 11120 820947 c86d3 ./layout_s
905942 36000 22920 964862 eb8fe /bin/sh
dec/hex 列分别是三者加总后的十进制与十六进制长度。示例中 layout_s 是静态链接版本,可见使用共享库的动态链接在各个段的尺寸上都有明显缩减。
栈的增长主要依赖函数调用层次的增加;堆的增长主要依赖以下存储器分配函数:
#include <stdlib.h>
void *malloc(size_t size);
void *calloc(size_t nmemb, size_t size);
void *realloc(void *ptr, size_t size);
void free(void *ptr);
其中:
对于新增的存储区
对于 realloc,新旧地址之间的关系:
realloc(NULL, size) 等价于 malloc(size)。
这些分配例程通常用 sbrk 系统调用来扩充进程的堆:
#include <unistd.h>
void *sbrk(intptr_t increment);
这通常是通过调用 program break 的位置来实现的,参考 man 这段说明:
DESCRIPTION
brk() and sbrk() change the location of the program break, which defines the end of the process's data segment (i.e., the pro‐
gram break is the first location after the end of the uninitialized data segment). Increasing the program break has the effect
of allocating memory to the process; decreasing the break deallocates memory.
program break 就是 bss 段的结尾,参考上图应该就是堆底。
sbrk 也可以减小堆大小,不过大多数 malloc 和 free 的实现都不减小进程的存储空间,释放的空间可供以后再分配,但通常将它们保持在 malloc 池中而不返回给内核。
有上面内容的铺垫,就可以回顾下上一节中增删改环境变量对存储空间的影响了:
环境变量空间改变如此复杂,主要是因为它的大小被栈顶限制死了,没有办法扩容,当增加环境变量数目时,只能从栈顶搬到堆中。
下面的程序演示了这一过程:
#include "../apue.h"
void print_envs()
{
extern char **environ;
printf ("base %p\n", environ);
for (int i=0; environ && environ[i] != 0; ++ i)
{
printf ("[%p] %s\n", environ[i], environ[i]);
}
}
int
main (int argc, char *argv[])
{
print_envs ();
setenv ("HOME", "ME", 1);
printf ("\nafter set HOME:\n");
print_envs ();
setenv ("LOGNAME", "this is a very very long user name", 1);
printf ("\nafter set LOGNAME:\n");
print_envs ();
unsetenv ("PATH");
printf ("\nafter unset PATH:\n");
print_envs ();
setenv ("DISAPPEAR", "not exist before", 0);
printf ("\nafter set DISAPPEAR:\n");
print_envs ();
setenv ("ADDISION", "addision adding", 0);
printf ("\nafter set ADDISION:\n");
print_envs ();
return 0;
}
程序比较简单,依次执行以下操作:add HOME -> add LOGNAME -> remove PATH -> add DISAPPEAR -> add ADDISION,每次操作后都打印整个环境变量表,以观察 environ 和各个环境变量的变化:
$ ./envpos
base 0x7fff15e16468
[0x7fff15e17488] XDG_SESSION_ID=318004
[0x7fff15e1749e] HOSTNAME=yunhai.bcc-bdbl.baidu.com
[0x7fff15e174c1] SHELL=/bin/bash
[0x7fff15e174d1] TERM=xterm-256color
[0x7fff15e174e5] HISTSIZE=1000
[0x7fff15e174f3] SSH_CLIENT=172.31.23.41 52661 22
[0x7fff15e17514] ANDROID_SDK_ROOT=/home/users/yunhai01/android_sdk
[0x7fff15e17546] QTDIR=/usr/lib64/qt-3.3
[0x7fff15e1755e] QTINC=/usr/lib64/qt-3.3/include
[0x7fff15e1757e] SSH_TTY=/dev/pts/6
[0x7fff15e17591] USER=yunhai01
[0x7fff15e17c57] TMOUT=0
[0x7fff15e17c5f] PATH=/home/yunh/.BCloud/bin:/home/users/yunhai01/.local/bin:/home/users/yunhai01/bin:/home/users/yunhai01/tools/bin:/home/users/yunhai01/project/android-ndk-r20:/usr/lib64/qt-3.3/bin:/usr/local/bin:/usr/bin:/opt/bin:/home/opt/bin:/home/users/yunhai01/tools/node-v14.17.0-linux-x64/bin:/usr/local/sbin:/usr/sbin:/opt/bin:/home/opt/bin:/home/users/yunhai01/tools/node-v14.17.0-linux-x64/bin
[0x7fff15e17de4] MAIL=/var/spool/mail/yunhai01
[0x7fff15e17e02] PWD=/home/users/yunhai01/code/apue/07.chapter
[0x7fff15e17e30] LANG=en_US.UTF-8
[0x7fff15e17e41] HISTCONTROL=ignoredups
[0x7fff15e17e58] HOME=/home/users/yunhai01
[0x7fff15e17e72] SHLVL=2
[0x7fff15e17e7a] GTAGSFORCECPP=1
[0x7fff15e17e8a] LOGNAME=yunhai01
[0x7fff15e17e9b] QTLIB=/usr/lib64/qt-3.3/lib
[0x7fff15e17eb7] SSH_CONNECTION=172.31.23.41 52661 10.138.62.136 22
[0x7fff15e17eea] LESSOPEN=||/usr/bin/lesspipe.sh %s
[0x7fff15e17f0d] ANDROID_NDK_HOME=/home/users/yunhai01/project/android-ndk-r20
[0x7fff15e17f4b] XDG_RUNTIME_DIR=/run/user/383278
[0x7fff15e17f6c] LLVM_HOME=/home/users/yunhai01/project/ndk-llvm
[0x7fff15e17f9c] HISTTIMEFORMAT=%Y-%m-%d %H:%M:%S
[0x7fff15e17fbe] OLDPWD=/home/users/yunhai01/code/apue
[0x7fff15e17fe4] _=./envpos
启动后先打印整个环境变量表,大概有 30 个环境变量。
after set HOME:
base 0x7fff15e16468
[0x7fff15e17488] XDG_SESSION_ID=318004
[0x7fff15e1749e] HOSTNAME=yunhai.bcc-bdbl.baidu.com
[0x7fff15e174c1] SHELL=/bin/bash
[0x7fff15e174d1] TERM=xterm-256color
[0x7fff15e174e5] HISTSIZE=1000
[0x7fff15e174f3] SSH_CLIENT=172.31.23.41 52661 22
[0x7fff15e17514] ANDROID_SDK_ROOT=/home/users/yunhai01/android_sdk
[0x7fff15e17546] QTDIR=/usr/lib64/qt-3.3
[0x7fff15e1755e] QTINC=/usr/lib64/qt-3.3/include
[0x7fff15e1757e] SSH_TTY=/dev/pts/6
[0x7fff15e17591] USER=yunhai01
[0x7fff15e17c57] TMOUT=0
[0x7fff15e17c5f] PATH=/home/yunh/.BCloud/bin:/home/users/yunhai01/.local/bin:/home/users/yunhai01/bin:/home/users/yunhai01/tools/bin:/home/users/yunhai01/project/android-ndk-r20:/usr/lib64/qt-3.3/bin:/usr/local/bin:/usr/bin:/opt/bin:/home/opt/bin:/home/users/yunhai01/tools/node-v14.17.0-linux-x64/bin:/usr/local/sbin:/usr/sbin:/opt/bin:/home/opt/bin:/home/users/yunhai01/tools/node-v14.17.0-linux-x64/bin
[0x7fff15e17de4] MAIL=/var/spool/mail/yunhai01
[0x7fff15e17e02] PWD=/home/users/yunhai01/code/apue/07.chapter
[0x7fff15e17e30] LANG=en_US.UTF-8
[0x7fff15e17e41] HISTCONTROL=ignoredups
[0x16fc010] HOME=ME
[0x7fff15e17e72] SHLVL=2
[0x7fff15e17e7a] GTAGSFORCECPP=1
[0x7fff15e17e8a] LOGNAME=yunhai01
[0x7fff15e17e9b] QTLIB=/usr/lib64/qt-3.3/lib
[0x7fff15e17eb7] SSH_CONNECTION=172.31.23.41 52661 10.138.62.136 22
[0x7fff15e17eea] LESSOPEN=||/usr/bin/lesspipe.sh %s
[0x7fff15e17f0d] ANDROID_NDK_HOME=/home/users/yunhai01/project/android-ndk-r20
[0x7fff15e17f4b] XDG_RUNTIME_DIR=/run/user/383278
[0x7fff15e17f6c] LLVM_HOME=/home/users/yunhai01/project/ndk-llvm
[0x7fff15e17f9c] HISTTIMEFORMAT=%Y-%m-%d %H:%M:%S
[0x7fff15e17fbe] OLDPWD=/home/users/yunhai01/code/apue
[0x7fff15e17fe4] _=./envpos
设置 HOME 变量,虽然新值长度小于旧值,这里仍然为新值在堆上分配了空间,看起来 linux 上的实现偷懒了。
after set LOGNAME:
base 0x7fff15e16468
[0x7fff15e17488] XDG_SESSION_ID=318004
[0x7fff15e1749e] HOSTNAME=yunhai.bcc-bdbl.baidu.com
[0x7fff15e174c1] SHELL=/bin/bash
[0x7fff15e174d1] TERM=xterm-256color
[0x7fff15e174e5] HISTSIZE=1000
[0x7fff15e174f3] SSH_CLIENT=172.31.23.41 52661 22
[0x7fff15e17514] ANDROID_SDK_ROOT=/home/users/yunhai01/android_sdk
[0x7fff15e17546] QTDIR=/usr/lib64/qt-3.3
[0x7fff15e1755e] QTINC=/usr/lib64/qt-3.3/include
[0x7fff15e1757e] SSH_TTY=/dev/pts/6
[0x7fff15e17591] USER=yunhai01
[0x7fff15e17c57] TMOUT=0
[0x7fff15e17c5f] PATH=/home/yunh/.BCloud/bin:/home/users/yunhai01/.local/bin:/home/users/yunhai01/bin:/home/users/yunhai01/tools/bin:/home/users/yunhai01/project/android-ndk-r20:/usr/lib64/qt-3.3/bin:/usr/local/bin:/usr/bin:/opt/bin:/home/opt/bin:/home/users/yunhai01/tools/node-v14.17.0-linux-x64/bin:/usr/local/sbin:/usr/sbin:/opt/bin:/home/opt/bin:/home/users/yunhai01/tools/node-v14.17.0-linux-x64/bin
[0x7fff15e17de4] MAIL=/var/spool/mail/yunhai01
[0x7fff15e17e02] PWD=/home/users/yunhai01/code/apue/07.chapter
[0x7fff15e17e30] LANG=en_US.UTF-8
[0x7fff15e17e41] HISTCONTROL=ignoredups
[0x16fc010] HOME=ME
[0x7fff15e17e72] SHLVL=2
[0x7fff15e17e7a] GTAGSFORCECPP=1
[0x16fc060] LOGNAME=this is a very very long user name
[0x7fff15e17e9b] QTLIB=/usr/lib64/qt-3.3/lib
[0x7fff15e17eb7] SSH_CONNECTION=172.31.23.41 52661 10.138.62.136 22
[0x7fff15e17eea] LESSOPEN=||/usr/bin/lesspipe.sh %s
[0x7fff15e17f0d] ANDROID_NDK_HOME=/home/users/yunhai01/project/android-ndk-r20
[0x7fff15e17f4b] XDG_RUNTIME_DIR=/run/user/383278
[0x7fff15e17f6c] LLVM_HOME=/home/users/yunhai01/project/ndk-llvm
[0x7fff15e17f9c] HISTTIMEFORMAT=%Y-%m-%d %H:%M:%S
[0x7fff15e17fbe] OLDPWD=/home/users/yunhai01/code/apue
[0x7fff15e17fe4] _=./envpos
设置 LOGNAME 变量,新值长度大于旧值,这里没有悬念的在堆上进行了分配。
after unset PATH:
base 0x7fff15e16468
[0x7fff15e17488] XDG_SESSION_ID=318004
[0x7fff15e1749e] HOSTNAME=yunhai.bcc-bdbl.baidu.com
[0x7fff15e174c1] SHELL=/bin/bash
[0x7fff15e174d1] TERM=xterm-256color
[0x7fff15e174e5] HISTSIZE=1000
[0x7fff15e174f3] SSH_CLIENT=172.31.23.41 52661 22
[0x7fff15e17514] ANDROID_SDK_ROOT=/home/users/yunhai01/android_sdk
[0x7fff15e17546] QTDIR=/usr/lib64/qt-3.3
[0x7fff15e1755e] QTINC=/usr/lib64/qt-3.3/include
[0x7fff15e1757e] SSH_TTY=/dev/pts/6
[0x7fff15e17591] USER=yunhai01
[0x7fff15e17c57] TMOUT=0
[0x7fff15e17de4] MAIL=/var/spool/mail/yunhai01
[0x7fff15e17e02] PWD=/home/users/yunhai01/code/apue/07.chapter
[0x7fff15e17e30] LANG=en_US.UTF-8
[0x7fff15e17e41] HISTCONTROL=ignoredups
[0x16fc010] HOME=ME
[0x7fff15e17e72] SHLVL=2
[0x7fff15e17e7a] GTAGSFORCECPP=1
[0x16fc060] LOGNAME=this is a very very long user name
[0x7fff15e17e9b] QTLIB=/usr/lib64/qt-3.3/lib
[0x7fff15e17eb7] SSH_CONNECTION=172.31.23.41 52661 10.138.62.136 22
[0x7fff15e17eea] LESSOPEN=||/usr/bin/lesspipe.sh %s
[0x7fff15e17f0d] ANDROID_NDK_HOME=/home/users/yunhai01/project/android-ndk-r20
[0x7fff15e17f4b] XDG_RUNTIME_DIR=/run/user/383278
[0x7fff15e17f6c] LLVM_HOME=/home/users/yunhai01/project/ndk-llvm
[0x7fff15e17f9c] HISTTIMEFORMAT=%Y-%m-%d %H:%M:%S
[0x7fff15e17fbe] OLDPWD=/home/users/yunhai01/code/apue
[0x7fff15e17fe4] _=./envpos
删除 PATH 变量,这一步主要验证再次新增环境变量时,会不会重复利用已删除的空位,到目前为止 environ 指针地址 (0x7fff15e16468) 没有发生变化,仍位于栈顶之上。
after set DISAPPEAR:
base 0x16fc0d0
[0x7fff15e17488] XDG_SESSION_ID=318004
[0x7fff15e1749e] HOSTNAME=yunhai.bcc-bdbl.baidu.com
[0x7fff15e174c1] SHELL=/bin/bash
[0x7fff15e174d1] TERM=xterm-256color
[0x7fff15e174e5] HISTSIZE=1000
[0x7fff15e174f3] SSH_CLIENT=172.31.23.41 52661 22
[0x7fff15e17514] ANDROID_SDK_ROOT=/home/users/yunhai01/android_sdk
[0x7fff15e17546] QTDIR=/usr/lib64/qt-3.3
[0x7fff15e1755e] QTINC=/usr/lib64/qt-3.3/include
[0x7fff15e1757e] SSH_TTY=/dev/pts/6
[0x7fff15e17591] USER=yunhai01
[0x7fff15e17c57] TMOUT=0
[0x7fff15e17de4] MAIL=/var/spool/mail/yunhai01
[0x7fff15e17e02] PWD=/home/users/yunhai01/code/apue/07.chapter
[0x7fff15e17e30] LANG=en_US.UTF-8
[0x7fff15e17e41] HISTCONTROL=ignoredups
[0x16fc010] HOME=ME
[0x7fff15e17e72] SHLVL=2
[0x7fff15e17e7a] GTAGSFORCECPP=1
[0x16fc060] LOGNAME=this is a very very long user name
[0x7fff15e17e9b] QTLIB=/usr/lib64/qt-3.3/lib
[0x7fff15e17eb7] SSH_CONNECTION=172.31.23.41 52661 10.138.62.136 22
[0x7fff15e17eea] LESSOPEN=||/usr/bin/lesspipe.sh %s
[0x7fff15e17f0d] ANDROID_NDK_HOME=/home/users/yunhai01/project/android-ndk-r20
[0x7fff15e17f4b] XDG_RUNTIME_DIR=/run/user/383278
[0x7fff15e17f6c] LLVM_HOME=/home/users/yunhai01/project/ndk-llvm
[0x7fff15e17f9c] HISTTIMEFORMAT=%Y-%m-%d %H:%M:%S
[0x7fff15e17fbe] OLDPWD=/home/users/yunhai01/code/apue
[0x7fff15e17fe4] _=./envpos
[0x16fc1e0] DISAPPEAR=not exist before
增加 DISAPPEAR 变量,没有悬念的在堆上分配了空间,最大的变化在于 environ 指针变了!从栈顶之上移动了到了堆中 (0x16fc0d0),看起来之前删除 PATH 变量腾空的位置没有利用上。
after set ADDISION:
base 0x16fc0d0
[0x7fff15e17488] XDG_SESSION_ID=318004
[0x7fff15e1749e] HOSTNAME=yunhai.bcc-bdbl.baidu.com
[0x7fff15e174c1] SHELL=/bin/bash
[0x7fff15e174d1] TERM=xterm-256color
[0x7fff15e174e5] HISTSIZE=1000
[0x7fff15e174f3] SSH_CLIENT=172.31.23.41 52661 22
[0x7fff15e17514] ANDROID_SDK_ROOT=/home/users/yunhai01/android_sdk
[0x7fff15e17546] QTDIR=/usr/lib64/qt-3.3
[0x7fff15e1755e] QTINC=/usr/lib64/qt-3.3/include
[0x7fff15e1757e] SSH_TTY=/dev/pts/6
[0x7fff15e17591] USER=yunhai01
[0x7fff15e17c57] TMOUT=0
[0x7fff15e17de4] MAIL=/var/spool/mail/yunhai01
[0x7fff15e17e02] PWD=/home/users/yunhai01/code/apue/07.chapter
[0x7fff15e17e30] LANG=en_US.UTF-8
[0x7fff15e17e41] HISTCONTROL=ignoredups
[0x16fc010] HOME=ME
[0x7fff15e17e72] SHLVL=2
[0x7fff15e17e7a] GTAGSFORCECPP=1
[0x16fc060] LOGNAME=this is a very very long user name
[0x7fff15e17e9b] QTLIB=/usr/lib64/qt-3.3/lib
[0x7fff15e17eb7] SSH_CONNECTION=172.31.23.41 52661 10.138.62.136 22
[0x7fff15e17eea] LESSOPEN=||/usr/bin/lesspipe.sh %s
[0x7fff15e17f0d] ANDROID_NDK_HOME=/home/users/yunhai01/project/android-ndk-r20
[0x7fff15e17f4b] XDG_RUNTIME_DIR=/run/user/383278
[0x7fff15e17f6c] LLVM_HOME=/home/users/yunhai01/project/ndk-llvm
[0x7fff15e17f9c] HISTTIMEFORMAT=%Y-%m-%d %H:%M:%S
[0x7fff15e17fbe] OLDPWD=/home/users/yunhai01/code/apue
[0x7fff15e17fe4] _=./envpos
[0x16fc1e0] DISAPPEAR=not exist before
[0x16fc240] ADDISION=addision adding
增加 ADDISION 变量,仍然在堆上分配空间,而且 environ 指针地址 (0x16fc0d0) 没有发生变化,看起来仍有足够的空间让 realloc 分配。
说到指令跳转,第一印象就是 goto。由于程序的执行本质是一条条机器代码的执行,有些指令本身自带跳转属性,像函数调用 (call)、函数返回 (return) 、switch-case 都是某种形式的指令跳转,goto 则将这种能力公布给了开发者,然而下面的两个限制导致它在实际应用上的推广受阻:
setjmp & longjmp 完美的解决了上述 goto 的缺点,支持跨函数栈的跳转、且使用上更不易被滥用,也被称为非局部 goto。
它的跳转逻辑和现代 C++ 的异常机制已经非常相似了,区别是后者加入了对栈上对象析构函数的自动调用等更多的内容。
先来看函数原型:
#include <setjmp.h>
int setjmp(jmp_buf env);
void longjmp(jmp_buf env, int val);
书上给的例子就不错,这里找到另外一个更简单的例子:
#include <setjmp.h>
#include <stdio.h>
static jmp_buf g_jmpbuf;
void exception_jmp()
{
printf ("throw_exception_jmp start.\n");
longjmp(g_jmpbuf, 1);
printf ("throw_exception_jmp end.\n");
}
void call_jmp()
{
exception_jmp();
}
int main(int argc, char *argv[])
{
/* using setjmp and longjmp */
if (setjmp(g_jmpbuf) == 0)
{
call_jmp();
}
else
{
printf ("catch exception via setimp-longjmp.\n");
}
return 0;
}
编译运行这个 demo,输出如下:
throw_exception_jmp start.
catch exception via setimp-longjmp.
对于没有接触过非局部 goto 的人来说还是比较直观的。
这里推荐一个在线的 c++ 编译器 compiler explorer,对于没有 Linux 环境的人来说非常友好,下面是编译运行上述 demo 的过程:
可以看到这个工具非常强大,可以:
有兴趣的读者可以自行探索。
回归代码,注意 longjmp 第二个参数,这个不是随便给的,它将作为跳转后 setjmp 的返回值,要与初始化时返回的 0 有一些区别,另外允许任意多个 longjmp 跳向同一个 jmp_buf 实例,这种情况下,通过指定不同的 val 参数也能区别出跳转源,是不是想的很周到?
longjmp 跳转时,当前所在的函数栈到 setjmp 之间的栈将被回收,依附之上的自动变量将不复存在,但是跳转目的地所在的栈帧还是存在的,此外还有不在当前栈上的全局变量、静态变量等等也是存在的。
虽然没读过 setjmp & longjmp 的源码,但原理应该就是存储和恢复函数栈 (各种寄存器),那这些未被撤销的变量,是恢复到 setjmp 时的状态,还是保留最后的状态呢?对上面的例子稍加修改来进行一番考察:
#include <setjmp.h>
#include <stdio.h>
static jmp_buf g_jmpbuf;
static int globval;
void exception_jmp()
{
printf ("throw_exception_jmp start.\n");
longjmp(g_jmpbuf, 1);
printf ("throw_exception_jmp end.\n");
}
void call_jmp(int i, int j, int k, int l)
{
printf ("in call_jmp (): \n"
"globval = %d,\n"
"autoval = %d,\n"
"regival = %d,\n"
"volaval = %d,\n"
"statval = %d\n\n",
globval,
i,
j,
k,
l);
exception_jmp();
}
int main(int argc, char *argv[])
{
int autoval;
register int regival;
volatile int volaval;
static int statval;
globval = 1;
autoval = 2;
regival = 3;
volaval = 4;
statval = 5;
/* using setjmp and longjmp */
if (setjmp(g_jmpbuf) == 0)
{
/*
* Change variables after setjmp, but before longjmp
*/
globval = 95;
autoval = 96;
regival = 97;
volaval = 98;
statval = 99;
call_jmp(autoval, regival, volaval, statval);
}
else
{
printf ("catch exception via setimp-longjmp.\n");
printf ("in main (): \n"
"globval = %d,\n"
"autoval = %d,\n"
"regival = %d,\n"
"volaval = %d,\n"
"statval = %d\n\n",
globval,
autoval,
regival,
volaval,
statval);
}
return 0;
}
在原来的基础上添加了几种类型的变量:
并分别在 call_jmp 内部和 longjmp 后 (第二次从 setjmp 返回) 时打印它们的值:
$ ./jumpvar
in call_jmp ():
globval = 95,
autoval = 96,
regival = 97,
volaval = 98,
statval = 99
throw_exception_jmp start.
catch exception via setimp-longjmp.
in main ():
globval = 95,
autoval = 96,
regival = 97,
volaval = 98,
statval = 99
在没开优化的情况下,各个变量都最新的状态,没有发生值回退现象,添加 -O 编译选项:
...
jumpvar: jumpvar.o apue.o
gcc -Wall -g $^ -o $@
jumpvar.o: jumpvar.c ../apue.h
gcc -Wall -g -c $< -o $@ -std=c99
jumpvar_opt: jumpvar_opt.o apue.o
gcc -Wall -g $^ -o $@
jumpvar_opt.o: jumpvar.c ../apue.h
gcc -Wall -g -c $< -o $@ -std=c99 -O
...
再次运行:
$ ./jumpvar
in call_jmp ():
globval = 95,
autoval = 96,
regival = 97,
volaval = 98,
statval = 99
throw_exception_jmp start.
catch exception via setimp-longjmp.
in main ():
globval = 95,
autoval = 2,
regival = 3,
volaval = 98,
statval = 99
这次 autoval 和 regival 的值发生了回退。加优化选项后为提高程序运行效率,这些变量的值从内存提升到了寄存器,从而导致恢复 main 堆栈时被一并恢复了。这里有几个值得注意的点:
所以最终的结论是:如果不想栈上的变量受 setjmp & longjmp 影响发生值回退,最好将它们声明为 volatile。
这里出于好奇,也使用 compiler explorer 运行了一把,结果没加优化的第一次运行输出就不一样:
主要区别在于 regival 会回退,将 compiler explorer 中的 gcc 版本降到和我本地一样的 4.8.5 后输出就一致了,因此主要区别在于编译器版本。
这一方面展示了 compiler explorer 强大的切换编译器版本的能力,另一方面也显示高版本 gcc 版本器倾向于"相信"用户提供的 register 关键字。
最后在 compiler explorer 中增加 -O 编译器参数,会得到和之前一样的结果:
进程对系统资源的请求并不是没有上限的,使用 getrlimit 和 setrlimit 查询或更改它们:
#include <sys/resource.h>
// struct rlimit {
// rlim_t rlim_cur; /* Soft limit */
// rlim_t rlim_max; /* Hard limit (ceiling for rlim_cur) */
// };
int getrlimit(int resource, struct rlimit *rlim);
int setrlimit(int resource, const struct rlimit *rlim);
resource 指定了限制的类型,rlim 则包含了资源限制的信息,主要包含两个成员:
RLIM_INFINITY 表示无限量:
# define RLIM_INFINITY ((__rlim_t) -1)
可以指定的资源限制类型及在本地环境上的软硬限制值列表如下:
resource
含义
软限制
硬限制
RLIMIT_AS
进程可用存储区的最大字节长度,会影响 sbrk & mmap 函数,非 Linux 平台也命名为 RLIMIT_VMEM
infinite
infinite
RLIMIT_CORE
崩溃转储文件的最大字节数,0 表示阻止创建,生成的 core 文件大于限制值时会被截断
0
infinite
RLIMIT_CPU
CPU 的最大量值,单位秒,超过软限制时,向进程发送 SIGXCPU 信号;超过硬限制时,向进程发送 SIGKILL 信号
infinite
infinite
RLIMIT_DATA
数据段的最大字节长度,是 init + bss + heap 的总长度,即除栈、环境变量、命令行参数外的内存总长度
infinite
infinite
RLIMIT_FSIZE
可以创建的文件的最大字节长度,当超过软限制时,向进程发送 SIGXFSZ 信号,若信号被捕获,则 write 返回 EBIG 错误
infinite
infinite
RLIMIT_LOCKS
一个进程可持有的文件锁的最大数量 (仅 Linux 支持)
infinite
infinite
RLMIT_MEMLOCK
一个进程使用 mlock 能够锁定在存储器中的最大字节长度,当超过软限制时,mlock 返回 ENOMEM 错误
65536
65536
RLIMIT_NOFILE
每个进程能打开的最大文件数,当超过软限制时,open 返回 EMFILE 错误,更改软限制会影响 sysconf (_SC_OPEN_MAX) 返回的值
1024
4096
RLIMIT_NPROC
每个实际用户 ID 可拥有的最大进程数,当超过软限制时,fork 返回 EAGAGIN 错误,更改软限制会影响 sysconf (_SC_CHILD_MAX) 返回的值
4096
63459
RLIMIT_RSS
最大驻内存集的字节长度 (resident set size in bytes),如果物理内存不足,内核将从进程处取回超过 RSS 的部分
infinite
infinite
RLMIT_SBSIZE
用户任意给定时刻可以占用的套接字缓冲区的最大字节长度 (仅 FreeBSD 支持)
n/a
n/a
RLMIT_STACK
栈的最大字节长度
8388608
infinite
限制值获取的 demo 就直接用书上提供的,感兴趣的读者可以查看原书,这里就不再列出了。
进程的资源限制通常是在系统初始化时由进程 0 建立的,然后由每个后续进程继承,对于其中非 RLIM_INFINITY 限制值的,进程终其一生无法提升限制值 (超级用户进程除外)。
shell 也提供相应的内置命令 (一般为 ulimit) 来修改默认的限制值,在启动命令前设置各种限制值才能在新进程中生效,在 CentOS 上使用 -a 选项可以查看所有的限制值:
$ ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 63459
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 4096
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
大部分限制值与调用接口的 demo 打印的一致,但是单位可能和接口不同,使用时需要注意。
下面大体按上表的顺序对各个限制类型分别施加资源限制,观察程序的行为是否和预期一致。
#include "../apue.h"
#include <sys/resource.h>
int main (int argc, char *argv[])
{
int ret = 0;
struct rlimit lmt = { 0 };
lmt.rlim_cur = 1024 * 1024;
lmt.rlim_max = RLIM_INFINITY;
ret = setrlimit (RLIMIT_AS, &lmt);
if (ret == -1)
err_sys ("set rlimit as failed");
char *ptr = malloc (1024 * 1024);
if (ptr == NULL)
err_sys ("malloc failed");
printf ("alloc 1 MB success!\n");
free (ptr);
}
设置进程内存软限制 1M ,然后分配 1M 的堆内存:
$ ./lmt_as
malloc failed: Cannot allocate memory
果然内存超限失败了。
例子同上,只需将 RLIMIT_AS 修改为 RLIMIT_DATA 即可,输出也一致。
毕竟 RLIMIT_DATA 所包含的三个段 (init / bss / heap) 中有堆内存,通过分配堆内存肯定是会挤占这部分限制的。
#include "../apue.h"
#include <sys/resource.h>
int main (int argc, char *argv[])
{
int ret = 0;
struct rlimit lmt = { 0 };
lmt.rlim_cur = 1024;
lmt.rlim_max = 102400;
ret = setrlimit (RLIMIT_CORE, &lmt);
if (ret == -1)
err_sys ("set rlimit core failed");
char *ptr = 0;
*ptr = 1;
return 0;
}
设置崩溃转储文件软限制为 1K,在遭遇空指针崩溃后,能正常生成 core 文件:
$ ./lmt_core
Segmentation fault (core dumped)
$ ls -l core.22482
-rw------- 1 yunhai01 DOORGOD 1024 Aug 27 21:59 core.22482
文件大小未超过 1K。当然前提是需要通过 ulimit -c 指定一个大于 1K 的数值 (非 root 用户),否则在 setrlimit 时会报错:
$ ./lmt_core
set rlimit core failed: Operation not permitted
另外生成的 core 文件应该是被截断了,通过 gdb 加载过程日志可以判断:
$ gdb --core=./core.22482
GNU gdb (GDB) Red Hat Enterprise Linux 7.6.1-120.el7
Copyright (C) 2013 Free Software Foundation, Inc.
License GPLv3+: GNU GPL version 3 or later <http://gnu.org/licenses/gpl.html>
This is free software: you are free to change and redistribute it.
There is NO WARRANTY, to the extent permitted by law. Type "show copying"
and "show warranty" for details.
This GDB was configured as "x86_64-redhat-linux-gnu".
For bug reporting instructions, please see:
<http://www.gnu.org/software/gdb/bugs/>.
"/home/users/yunhai01/code/apue/07.chapter/./core.22482" is not a core dump: File truncated
(gdb)
因此也是不能用的。最后补充一点,设置 core 文件的最小尺寸必需大于 1,否则不会生成任何 core 文件。
#include "../apue.h"
#include <sys/resource.h>
void sigxcpu_handler (int sig)
{
printf ("ate SIGXCPU...\n");
signal (SIGXCPU, sigxcpu_handler);
}
int main (int argc, char *argv[])
{
int ret = 0;
signal (SIGXCPU, sigxcpu_handler);
struct rlimit lmt = { 0 };
lmt.rlim_cur = 1;
lmt.rlim_max = 5;
ret = setrlimit (RLIMIT_CPU, &lmt);
if (ret == -1)
err_sys ("set rlimit cpu failed");
int i = 1, j = 1;
while (1)
{
i *= j++;
}
return 0;
}
设置了 CPU 软限制为 1 秒,硬限制为 5 秒,且捕获 SIGXCPU 信号,之后进入一个计算死循环,不停消耗 CPU 时间:
$ ./lmt_cpu
ate SIGXCPU...
ate SIGXCPU...
ate SIGXCPU...
ate SIGXCPU...
Killed
日志几乎是一秒输出一行,第 5 秒时达到 CPU 硬限制,进程被强制杀死。
#include "../apue.h"
#include <sys/resource.h>
#include <sys/file.h>
void sigxfsz_handler (int sig)
{
printf ("ate SIGXFSZ...\n");
signal (SIGXFSZ, sigxfsz_handler);
}
int main (int argc, char *argv[])
{
int ret = 0;
signal (SIGXFSZ, sigxfsz_handler);
struct rlimit lmt = { 0 };
lmt.rlim_cur = 1024;
lmt.rlim_max = RLIM_INFINITY;
ret = setrlimit (RLIMIT_FSIZE, &lmt);
if (ret == -1)
err_sys ("set rlimit fsize failed");
int fd = open ("core.tmp", O_RDWR | O_CREAT, 0644);
if (fd == -1)
err_sys ("open file failed");
char buf[16];
int total = 0;
while (1)
{
ret = write (fd, buf, 16);
if (ret == -1)
err_sys ("write failed");
total += ret;
printf ("write %d, total %d\n", ret, total);
}
close (fd);
return 0;
}
设置最大写入文件字节数软限制 1K,捕获 SIGXFZE 信号后打开 core.tmp 文件不停写入,每次写入 32 字节直到失败:
$ ./lmt_fsize
write 32, total 32
write 32, total 64
write 32, total 96
write 32, total 128
write 32, total 160
write 32, total 192
write 32, total 224
write 32, total 256
write 32, total 288
write 32, total 320
write 32, total 352
write 32, total 384
write 32, total 416
write 32, total 448
write 32, total 480
write 32, total 512
write 32, total 544
write 32, total 576
write 32, total 608
write 32, total 640
write 32, total 672
write 32, total 704
write 32, total 736
write 32, total 768
write 32, total 800
write 32, total 832
write 32, total 864
write 32, total 896
write 32, total 928
write 32, total 960
write 32, total 992
write 32, total 1024
ate SIGXFSZ...
write failed: File too large
写满 1K 后收到了 SIGXFSZ 信号,捕获信号避免了进程 abort,不过 write 返回了 EBIG 错误。
这里需要注意不应使用 fopen/fclose/fwrite 来进行测试,因标准 I/O 库的缓存机制,导致写入的字节数大于实际落盘的字节数,从而得不到准确的限制值。
#include "../apue.h"
#include <errno.h>
#include <sys/resource.h>
int main (int argc, char *argv[])
{
int ret = 0;
struct rlimit lmt = { 0 };
lmt.rlim_cur = 32 * 1024;
lmt.rlim_max = 64 * 1024;
ret = setrlimit (RLIMIT_MEMLOCK, &lmt);
if (ret == -1)
err_sys ("set rlimit memlock failed");
char *ptr = malloc (32 * 1024);
if (ptr == NULL)
err_sys ("malloc failed");
printf ("alloc 32K success!\n");
#define BLOCK_NUM 32
for (int i=0; i<BLOCK_NUM; ++ i)
{
ret = mlock (ptr + 1024 * i, 1024);
if (ret == -1)
err_sys ("mlock failed, %d", errno);
printf ("lock 1 KB success!\n");
}
for (int i=0; i<BLOCK_NUM; ++ i)
{
ret = munlock (ptr + 1024 * i, 1024);
if (ret == -1)
err_sys ("munlock failed, %d", errno);
printf ("unlock 1 KB success!\n");
}
free (ptr);
return 0;
}
程序设置内存锁总长度软限制为 32K,硬限制 64K,分配 32K 内存后,在该内存上施加 32 个 1K 的范围锁:
$ ./lmt_memlock
alloc 32K success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
mlock failed, 12: Cannot allocate memory
在达到 27K 左右时 mlock 报错了,没有达到 32K 的上限可能和 glibc 内部也有一些 mlock 调用有关。
如果将 1K 的块调整为 16 个,总的锁长度调整为 16K,再次运行 demo:
$ ./lmt_memlock
alloc 32K success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
lock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
unlock 1 KB success!
这回能成功。最后需要注意的是,默认 memlock 的上限是 64K,如果需要测试大于 64K 的场景,需要提前使用 ulimit 提升该限制。
#include "../apue.h"
#include <sys/resource.h>
#include <sys/file.h>
int main (int argc, char *argv[])
{
int ret = 0;
struct rlimit lmt = { 0 };
lmt.rlim_cur = 5;
lmt.rlim_max = 10;
ret = setrlimit (RLIMIT_NOFILE, &lmt);
if (ret == -1)
err_sys ("set rlimit nofile failed");
ret = sysconf (_SC_OPEN_MAX);
printf ("sysconf (_SC_OPEN_MAX) = %d\n", ret);
#define FD_SIZE 10
char filename[256] = { 0 };
int fds[FD_SIZE] = { 0 };
for (int i=0; i<FD_SIZE; ++ i)
{
sprintf (filename, "core.%02d.lck", i+1);
fds[i] = open (filename, O_RDWR | O_CREAT, 0644);
if (fds[i] == -1)
err_sys ("open file failed");
printf ("open file %s\n", filename);
}
for (int i=0; i<FD_SIZE; ++ i)
{
if (fds[i] != 0)
{
close (fds[i]);
}
}
return 0;
}
设置打开文件数软限制为 5,硬限制为 10,之后创建 10 个文件 (core.xx.lck):
$ ./lmt_nofile
sysconf (_SC_OPEN_MAX) = 5
open file core.01.lck
open file core.02.lck
open file failed: Too many open files
在打开第 3 个文件时失败,open 返回 EMFILE,这是由于程序本身的 stdin/stdout/stderr 会占用 3 个文件句柄,导致只剩下 2 个指标了。
值得注意的是在设置软限制后,sysconf 对应的返回值也变为 5 了。
#include "../apue.h"
#include <sys/resource.h>
#include <sys/file.h>
void sigxfsz_handler (int sig)
{
printf ("ate SIGXFSZ...\n");
signal (SIGXFSZ, sigxfsz_handler);
}
int main (int argc, char *argv[])
{
int ret = 0;
signal (SIGXFSZ, sigxfsz_handler);
struct rlimit lmt = { 0 };
lmt.rlim_cur = 1;
lmt.rlim_max = 1;
ret = setrlimit (RLIMIT_LOCKS, &lmt);
if (ret == -1)
err_sys ("set rlimit locks failed");
#define FD_SIZE 10
char filename[256] = { 0 };
int fds[FD_SIZE] = { 0 };
for (int i=0; i<FD_SIZE; ++ i)
{
sprintf (filename, "core.%02d.lck", i+1);
fds[i] = open (filename, O_RDWR | O_CREAT, 0644);
if (fds[i] == -1)
err_sys ("open file failed");
ret = flock (fds[i], LOCK_EX /*| LOCK_NB | LOCK_SH*/);
if (ret == -1)
err_sys ("lock file failed");
printf ("establish lock %2d OK\n", i+1);
}
for (int i=0; i<FD_SIZE; ++ i)
{
if (fds[i] != 0)
{
//flock (fds[i], LOCK_UN);
close (fds[i]);
}
}
return 0;
}
在上一小节例子的基础上修改:设置文件锁数量软硬限制均为 1,在创建文件后为每个文件施加一个文件锁:
$ ./lmt_locks
establish lock 1 OK
establish lock 2 OK
establish lock 3 OK
establish lock 4 OK
establish lock 5 OK
establish lock 6 OK
establish lock 7 OK
establish lock 8 OK
establish lock 9 OK
establish lock 10 OK
$ ls -lh core.*
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.01.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.02.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.03.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.04.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.05.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.06.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.07.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.08.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.09.lck
-rw-r--r-- 1 yunhai01 DOORGOD 0 Aug 27 22:26 core.10.lck
看起来没有生效,不清楚是否和文件长度为零有关,但是 flock 接口确实返回了成功,有功夫再研究。
#include "../apue.h"
#include <sys/resource.h>
int main (int argc, char *argv[])
{
int ret = 0;
struct rlimit lmt = { 0 };
lmt.rlim_cur = 10;
lmt.rlim_max = 10;
ret = setrlimit (RLIMIT_NPROC, &lmt);
if (ret == -1)
err_sys ("set rlimit nproc failed");
#define PROC_SIZE 10
int pids[PROC_SIZE] = { 0 };
for (int i=0; i<PROC_SIZE; ++ i)
{
pids[i] = fork ();
if (pids[i] == -1)
err_sys ("fork failed");
if (pids[i] == 0)
{
printf ("child %d running\n", getpid ());
sleep (1);
exit (0);
}
printf ("create child %d\n", pids[i]);
}
sleep (1);
return 0;
}
设置进程数软硬限制均为 10,启动 10 个子进程,如果算上本身已达到 11 个,所以肯定会有进程 fork 失败:
$ ./lmt_nproc
fork failed: Resource temporarily unavailable
但没想到第一个子进程就创建失败了,又研究了一下 RLIMIT_NPROC 的含义——"每个实际 UID 用户拥有的最大进程数"——原来是用户维度的,并不是子进程维度的,所以还得看目前系统中存在的进程数:
$ ps -aux | grep yunhai01 | wc -l
259
参考这个设置为 265,留 6 个余量,结果还是一样。直接调大到 512 ,这回倒是成功了,但是没法验证边界情况了,于是有了下面探索边界的代码:
#include "../apue.h"
#include <sys/resource.h>
int main (int argc, char *argv[])
{
int ret = 0;
struct rlimit lmt = { 0 };
int base = 10;
int success_cnt = 0;
#define PROC_SIZE 50
ret = sysconf (_SC_CHILD_MAX);
printf ("sysconf (_SC_CHILD_MAX) = %d\n", ret);
while (base < 1024 && base + PROC_SIZE < 1024)
{
printf ("============================\n");
printf ("detect with limit based %d\n", base);
lmt.rlim_cur = base;
lmt.rlim_max = 1024;
ret = setrlimit (RLIMIT_NPROC, &lmt);
if (ret == -1)
err_sys ("set rlimit nproc failed");
ret = sysconf (_SC_CHILD_MAX);
printf ("sysconf (_SC_CHILD_MAX) = %d\n", ret);
success_cnt = 0;
int pids[PROC_SIZE] = { 0 };
for (int i=0; i<PROC_SIZE; ++ i)
{
pids[i] = fork ();
if (pids[i] == -1)
{
if (success_cnt > 0)
err_sys ("fork failed");
else
{
err_msg ("fork failed");
break;
}
}
else if (pids[i] == 0)
{
printf ("child %d running\n", getpid ());
sleep (1);
exit (0);
}
printf ("create child %d\n", pids[i]);
success_cnt ++;
}
sleep (1);
if (base > PROC_SIZE)
base += PROC_SIZE;
else
base *= 2;
}
return 0;
}
与之前相比,在外侧增加了一个循环,用于不停提升探索 RLIMIT_NPROC 的基数,初始时设置为 10,之后以指数方式递增,直到超过探查子进程数量 (PROC_SIZE),这之后每次增加的数量固定为 PROC_SIZE。
这样做的上的是在尽快定位边界的同时,保证一次探查能完全覆盖失败的情况,为此也将 PROC_SIZE 从 10 提升到了 50。
设置 RLIMIT_NPROC 时需注意保持硬限制不变 (1024),如果硬限制同软限制一同降低,后面就再也无法提升软限制。
最后增加了 sysconf(_SC_CHILD_MAX) 的调用,验证与 RLMIT_NPROC 的软限制设置是否同步:
$ ./lmt_nproc
sysconf (_SC_CHILD_MAX) = 4096
============================
detect with limit based 10
sysconf (_SC_CHILD_MAX) = 10
fork failed
============================
detect with limit based 20
sysconf (_SC_CHILD_MAX) = 20
fork failed
============================
detect with limit based 40
sysconf (_SC_CHILD_MAX) = 40
fork failed
============================
detect with limit based 80
sysconf (_SC_CHILD_MAX) = 80
fork failed
============================
detect with limit based 130
sysconf (_SC_CHILD_MAX) = 130
fork failed
============================
detect with limit based 180
sysconf (_SC_CHILD_MAX) = 180
fork failed
============================
detect with limit based 230
sysconf (_SC_CHILD_MAX) = 230
fork failed
============================
detect with limit based 280
sysconf (_SC_CHILD_MAX) = 280
fork failed
============================
detect with limit based 330
sysconf (_SC_CHILD_MAX) = 330
fork failed
============================
detect with limit based 380
sysconf (_SC_CHILD_MAX) = 380
create child 8623
create child 8624
create child 8625
child 8624 running
create child 8626
child 8625 running
create child 8627
child 8627 running
create child 8628
child 8628 running
create child 8629
child 8629 running
create child 8630
child 8630 running
create child 8631
child 8631 running
create child 8632
child 8632 running
create child 8633
child 8633 running
create child 8634
child 8634 running
create child 8635
child 8635 running
create child 8636
child 8623 running
create child 8637
child 8626 running
create child 8638
child 8637 running
create child 8639
child 8638 running
create child 8640
child 8639 running
create child 8641
child 8640 running
create child 8642
child 8641 running
create child 8643
child 8642 running
create child 8644
child 8643 running
create child 8645
fork failed: Resource temporarily unavailable
child 8644 running
child 8645 running
child 8636 running
在限制值为 380 且创建了 22 个进程时出现 fork 失败,可以推算之前用户的进程数不到 360,这和 ps 输出的 259 差距不小,可能是 ps 选项没设置对的缘故。
另外 sysconf (_SC_CHILD_MAX) 的输出与软限制的设置基本同步,只是第一次调用它返回的 1024 看起来并不实用,因为在已有 360 个用户进程的情况下,只能再新建不到 700 个进程,与 sysconf 返回的 1024 差距还是比较大的。
可以推断这个返回值只是简单的将系统软限制返回,并没有参考当前的系统负载,使用时需谨慎。
最后补充一点,在 compiler explorer 中运行上面的程序,第一轮就可以覆盖到失败的场景:1
看起来使用的系统非常干净 ~
#include "../apue.h"
#include <sys/resource.h>
int stack_depth = 0;
void call_stack_recur ()
{
char buf[1024] = { 0 };
printf ("call stack %d\n", stack_depth++);
call_stack_recur ();
}
int main (int argc, char *argv[])
{
int ret = 0;
struct rlimit lmt = { 0 };
lmt.rlim_cur = 1024 * 10;
lmt.rlim_max = 1024 * 10;
ret = setrlimit (RLIMIT_STACK, &lmt);
if (ret == -1)
err_sys ("set rlimit stack failed");
call_stack_recur ();
return 0;
}
设置软硬限制均为 10K,然后递归调用 call_stack_recur,后者栈上有一个 1K 大小的数组,理论上只能递归不到 10 次,demo 运行结果如下:
查看代码
$ ./lmt_stack
call stack 0
call stack 1
call stack 2
call stack 3
call stack 4
call stack 5
call stack 6
call stack 7
call stack 8
call stack 9
call stack 10
call stack 11
call stack 12
call stack 13
call stack 14
call stack 15
call stack 16
call stack 17
call stack 18
call stack 19
call stack 20
call stack 21
call stack 22
call stack 23
call stack 24
call stack 25
call stack 26
call stack 27
call stack 28
call stack 29
call stack 30
call stack 31
call stack 32
call stack 33
call stack 34
call stack 35
call stack 36
call stack 37
call stack 38
call stack 39
call stack 40
call stack 41
call stack 42
call stack 43
call stack 44
call stack 45
call stack 46
call stack 47
call stack 48
call stack 49
call stack 50
call stack 51
call stack 52
call stack 53
call stack 54
call stack 55
call stack 56
call stack 57
call stack 58
call stack 59
call stack 60
call stack 61
call stack 62
call stack 63
call stack 64
call stack 65
call stack 66
call stack 67
call stack 68
call stack 69
call stack 70
call stack 71
call stack 72
call stack 73
call stack 74
call stack 75
call stack 76
call stack 77
call stack 78
call stack 79
call stack 80
call stack 81
call stack 82
call stack 83
call stack 84
call stack 85
call stack 86
call stack 87
call stack 88
call stack 89
call stack 90
call stack 91
call stack 92
call stack 93
call stack 94
call stack 95
call stack 96
call stack 97
call stack 98
call stack 99
call stack 100
call stack 101
call stack 102
call stack 103
call stack 104
call stack 105
call stack 106
call stack 107
call stack 108
call stack 109
call stack 110
call stack 111
call stack 112
call stack 113
call stack 114
call stack 115
call stack 116
call stack 117
call stack 118
call stack 119
call stack 120
call stack 121
call stack 122
Segmentation fault (core dumped)
却运行了 122 次之多,难道是 buf 数组被编译器优化了?调整 buf 尺寸为 5120,再次运行:
$ ./lmt_stack
call stack 0
call stack 1
call stack 2
call stack 3
call stack 4
call stack 5
call stack 6
call stack 7
call stack 8
call stack 9
call stack 10
call stack 11
call stack 12
call stack 13
call stack 14
call stack 15
call stack 16
call stack 17
call stack 18
call stack 19
call stack 20
call stack 21
call stack 22
call stack 23
call stack 24
Segmentation fault (core dumped)
尺寸变大 5 倍,递归次数减少为 1/5 左右,应该是生效的。最终的结果是限制值的 12 倍之多,没有限制住。
使用 compiler explorer 运行上面的 demo,事情有些不同:
首先需要的起始内存比较大,500K,其次递归的数量没那么多,不到 300 次。可以对 compiler explorer 使用的系统做如下合理推测:
现代 linux 除了书上列的这些,还有其它许多方面的限制 (例如限制消息队列的 RLIMIT_MSGQUEUE),这里就不一一列举了,感兴趣的可以参考 setrlimit 的 man 手册页。
另外表中的 RLIMIT_RSS 并没有验证,因为这需要一种极端内存紧张的系统环境,不太好搭建。
RLMIT_SBSIZE 仅在 FreeBSD 上有效,Linux 是通过套接字接口设置底层 buffer 大小的,而系统层级的缓冲大小限制是通过 proc 文件系统来查看和修改的。
进程环境的核心还是这张内存布局图,有必要再复习一下:
从这里可以看到程序的各个段是如何排布的,就可以:
[1]. C/C++ 异常处理之 01:setjmp 和 longjmp
[2]. compiler explorer
[3].
手机扫一扫
移动阅读更方便
你可能感兴趣的文章