博客
关于我
在内核中分配物理地址连续的大内存.
阅读量:576 次
发布时间:2019-03-11

本文共 2118 字,大约阅读时间需要 7 分钟。

 

kernel version 2.6.29

内核函数常常需要临时分配一块任意大小的物理地址连续的内存空间. 所以先介绍内核中两个分配物理地址连续的内存空间的API.

kmalloc

由于采用了SLUB作为默认内存分配器, 所以 kmalloc 工作于 SLUB 分配器之上。内核初始化时,创建一组共 13 个通用对象的缓冲区。kmalloc_caches 数组存放了这些缓冲区的 kmem_cache 数据结构(kmalloc_sizes.h)。由于 kmem_cache 数据结构是通过 kmalloc 来分配的,故而只能用静态分配的 kmem_cache 结构数组来描述通用对象的缓冲区。其中 kmalloc_caches[0] 代表的缓冲区专门分配 kmem_cache_node 结构。kmalloc_caches[1] 缓冲区对象大小为64,kmalloc_caches[2] 缓冲区对象大小为192,其余第 i(3-12)号缓冲区对象大小为 2^i。如果请求分配超过物理页面大小(4096)的对象,直接调用页框分配器__get_free_pages.

__get_free_pages

__get_free_pages 采用的内存分配方式为Buddy算法. 所以一般分配的数据大小为故是2 ^ order个页面大小. 内核中定义了一个宏 MAX_ORDER, 表示一次请求能分配的最大物理页数不能 >= MAX_ORDER, 也就是最大可以分配到的内存块. 2.6.29.6 中MAX_ORDER为 11 即最大分配大小为 ( 2 ^ 10 ) * 4096 = 4M.

如果我们需要在内核中分配4M以上的连续物理内存,怎么办,当前内核对应的方法还有两个:
1> 使用static或全局变量数组, 直接定义变量大小为所需数据大小.
例:
    static char buffer[ 512 * 1024 * 1024 ];
 定义512M大小数组. 不过此方法应用到模块中话, 会导致加载模块速度奇慢.

2> 使用alloc_bootmem系列API在start_kernel调用mem_init()之前申请所需的连续大内存. 或添加一内核参数根据需要来调整数据缓冲大小. 不过此段内存也就永久保留, 除非直接引用所分配的内存地址.

例:

    以下定义一内核参数pf_buf_len=nn[KMG],可定制分配的内存大小. 并EXPORT地址与长度信息.

参考:

Linux slab 分配器剖析
Linux SLUB 分配器详解

注:

还有一内核参数memmap=nn[KMG]$ss[KMG] 可以将ss位置起始一段大小为nn的内存保留,并不会将其映射到地址空间内. 一般在检测Bad RAM时有用,可以直接跳过Bad RAM物理地址空间段进行映射. 驱动中也可以直接使用其物理地址,常用的驱动是framebuffer驱动 driver/video/sgivwfb.c

转载地址:http://goxvz.baihongyu.com/

你可能感兴趣的文章
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate动态添加表
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>