Ogre内存管理nedmalloc结构分析

    技术2022-05-19  28

     

    nedmalloc结构分析

        nedmalloc是一个跨平台的高性能多线程内存分配库,很多库都使用它,例如:OGRE.现在我们来看看nedmalloc的实现 (以WIN32部分为例)    位操作小技巧;i.获取最低位的出现位置的掩码;x&(-x)ii.判断值为2的幂:x & (x-1) == 0iii.获取从最低的值为1的位开始到左边MSB的掩码: x | (-x)iv.字节对齐;(x + 2^m) &( 2^m -1)

    nedmalloc设计的数据结构和使用方法有几个有趣的地方:1.从操作系统得到的内存后分了3层,内存块=>简单内存描述结构(数据节点)=>内存数据节点链(面向开发者)2.内存块处理流程:创建线程共享内存池(多个线程通过这个”池”来向系统申请/复用内存,这里需要互斥)       |-->释放内存时将内存放到各线程自己的数据结构中(TLS),对于小块内存用简单数组链表来保存,           对于大块的内存就用过“树”来保存(设计上应该是考虑小块的内存使用频率较高,简单链表访问           时间相对快) 线程请求内存时,首先从线程自己的维护的空闲内存查找,然后再从线程内存池中查找。

    3.内存是按照"块"对齐的形式分配的,而且用户得到的可用内存是真正内存块的"一部分",由于块的大小是对齐的,表示块大小字节的最低3位用于表示块的使用标志。

       现在我们具体看看Win32平台下nedmalloc1.分配流程   nedpmalloc(nedpool *p, size_t size)      |   从线程的独立数据中查询空闲的内存   GetThreadCache(&p, &threadcache, &mymspace, &size)      |    |------>检查申请大小,如果小于sizeof(threadcacheblk),用sizeof(threadcacheblk)代替      |    |        因为在该块内存"释放"时需要放到空闲链表中,注意threadcacheblk的内存布局和malloc_chunk      |    |        是一样的,虽然它们的含义有区别。      |    |                |      |    |        对于首次调用来说,需要初始化全局内存池      |    |        InitPool(&syspool, 0, -1)      |    |             |--------->检查全局参数并初始化ensure_initialization      |    |                        初始化内存池的锁和设置TLS      |    |                        INITIAL_LOCK(&p->mutex)      |    |                        TlsAlloc(syspool->mycache)      |    |                              |      |    |                        创建线程池的空间      |    |                        create_mspace(capacity, 1)      |    |                              |      |    |                     计算"实际"分配的大小:      |    |      capacity + pad_request(sizeof(struct malloc_state)) + { align_offset(chunk2mem(0))      |    |     pad_request(sizeof(struct malloc_segment)) + ((MCHUNK_SIZE + CHUNK_ALIGN_MASK) &      |    |       ~CHUNK_ALIGN_MASK)}      |    |                              |    | 从大小的计算可以知道,在没有被"外部接口"使用时,至少会包含malloc_state结构和malloc_segment结构      |    | 这里多个数据结构都是分别计算块对齐的(这里分结构对齐的目的一方面为了访问结构的时候可以从块对      |    | 齐的位置开始,这样在存储的时候会快一些,但最主要的是为了使地址低位的bit"空闲",用于表示其他的含义)      |    |                              |      |    |                   初始化malloc_state结构      |    |                   init_user_mstate(tbase, tsize)      |    |                              ||      |    |                  这个函数中需要注意几个细节:      |    |             1.指针计算:      |    |                   mchunkptr msp = align_as_chunk(tbase); 计算对齐偏移,align_as_chunk中会有chunk2mem的调用      |    |                   mstate m = (mstate)(chunk2mem(msp));malloc_state的位置比对块其后的malloc_chunk偏移8个字      |    |                   节(32Bit计算)      |    |              2.大小计算:      |    |                  msp->head = (pad_request(sizeof(struct malloc_state))|PINUSE_BIT|CINUSE_BIT)      |    |                  malloc_chunk的大小只计算了malloc_state,而不是可用空间的大小,可用空间大小是在      |    |                  malloc_state中设置的      |    |                                |    |                  m->seg.base = m->least_addr = tbase;      |    |                  m->seg.size = m->footprint = m->max_footprint = tsize;      |    |                             |    |              3. 内存块链表的初始化      |    |                   init_bins(m);      |    |                   malloc_state结构中smallbins是一个malloc_chunk的指针数组,特别需要注意它的定义和使用      |    |                   smallbins[(NSMALLBINS+1)*2]      |    |                   这里一共分配了 sizeof(malloc_chunk*) * (NSMALLBINS+1)*2 个字节      |    |                   在使用的时候是通过smallbin_at来获取对应的指针,这个宏返回的地址实际上是smallbins中      |    |                  元素的地址,并将这个地址强制转换为malloc_chunk类型变量,也就是说如果通过这个      |    |                  指针访问/修改变量,实际上修改的是smallbins的内容,而且      |    |                   p = smallbin_at(m, i)得到的p和smallbins对应关系是:      |    |                   p->prev_foot <==> smallbins[i*2]      |    |                   p->head <==> smallbins[i*2 + 1]      |    |                  p->fd   <==> smallbins[i*2 + 1 + 1] == smallbins[(i+1)*2], smallbin_at(i+1)的返回值      |    |             4. 计算下一个malloc_chunk的位置,这个malloc_chunk才是用于维护后面连续的内存块的      |    |                 next_chunk(mem2chunk(m))      |    |                 初始化空闲内存块的信息      |    |                 init_top(m, mn, (size_t)((tbase + tsize) - (char*)mn) - TOP_FOOT_SIZE)          |    |                 这个函数做两件事:      |    |                 i.设置malloc_state真正的开始分配位置和可用到小;      |    |                ii.设置"最后"一个malloc_chunk(末尾的块,不用特殊用途)的大小,这个块的是没有使用的标志位的      |    |---->分配线程缓存AllocCache(nedpool* p)      |               |-->分配新的threadcache结构      |               tc=p->caches[n]=(threadcache *) mspace_calloc(p->m[0], 1, sizeof(threadcache))      |               mspace_malloc(这个函数中的逻辑分支比较多,需要结合内存释放来分析,后面我们再详细看),由于      |               threadcache比较小,      |               所以这里大小会调整为MIN_CHUNK_SIZE,并且内存会在malloc_state的top中分配      |                     size_t rsize = ms->topsize -= nb;      |                      mchunkptr p = ms->top;      |                      mchunkptr r = ms->top = chunk_plus_offset(p, nb);      |                      r->head = rsize | PINUSE_BIT;      |                           |      |                           |      |              初始化thread_cache,并设置线程的TLS      |          TlsSetValue(p->mycache, (void *)(size_t)(n+1))       |          需要注意的是:这里用的值是n+1, 另外tc->mymspace=tc->threadid % end(这里求余实际上是为了减少碰撞)      |           (事实上thread_cache结构是用于维护内存申请者内存块信息的中间结构)如果返回的内存缓存thread_cache结构有效,而且调整后的大小,那么请求的内存从cache中分配threadcache_malloc(p, tc, &size)      |    |-->分配内存的时候是按照块对齐的(8,16,20...)字节,所以这里首先计算能满足用户需求的最小的块大小      |      (threadcache有一个在使用上和malloc_state的smallbins非常相似的结构设计成员bins,它是threadcacheblk的指      |       针数组,但是在使用上,它们有所不同)      |            |      |      获取对应块大小对齐的指针binsptr=&tc->bins[idx*2](这里是对指针数组成员取了地址),如果当前的链表信息为      |     空,或者空间不足,那么检查下一个块,这里只检查下一个大小的块,是为了减少损失的内存使用。如果得      |      到的块非空,那么将当前的块从链表中分离出来返回(这里每个链包含两个指针,应该是首,尾指针)      |如果从线程各自的缓存中分配失败,那么就从malloc_state中分配mstate pms = GetMSpace(p, &tc, mymspace, size)      |            |->根据myspace获取malloc_state(注意,获取的malloc_state并不一定是当前线程创建的),      |               如果该malloc_state不能锁定,那么历遍其他的malloc_state看能否锁定,如果失败,只要没有超过内      |               存池允许的上限, 那么创建一个。这里有个细节      |               if(tc)      |                  tc->mymspace=n;      |              else      |              {      |                  if(TLSSET(p->mycache, (void *)(size_t)(-(n+1)))) abort();      |              }      |              如果在首次初始化线程缓存thread_cache的时候失败,TLS的值将会是-1, 而后面会到达GetMSpace,假      |              设这时候创建成功,那么TLS会变成-2,这样在下次GetThreadCache的时候会重新myspace为1,这样它      |              不会进行Allocache的调用;如果这时创建失败,那么会等待上一次使用的malloc_state空闲,这是TLS会      |              保持-1, 最后会将myspace设置为0。在获取的malloc_state上分配空间mspace_malloc(pms, size)2.内存释放流程nedpfree(nedpool *p, void* mem)     |计算当前线程使用的cache信息GetThreadCache(&p, &tc, &mymspace, 0)(线程对应的cache确定(分配成功)后是不会改变的)     |如果内存块比较小,而且thread_cache成功,那么将内存块放到cache中threadcache_free(p, tc, mymspace, mem, memsize)         |->将mem转变为threadcacheblk*,并根据mem对应内存块的实际大小(申请者使用的部分只是            真实内存块的一部分)链入到thread_cache的bin成员中(有需要的话调整首尾指针)            如果cache中的内存块总大小超过特定上限时将cache中的内存返回到malloc_state中            ReleaseFreeInCache->根据加入到cache的先后顺序将threadcacheblk释放到malloc_state                 |            RemoveCacheEntries->从cache的尾指针开始历遍threadcacheblk链,将"时间"过长的块释放            mspace_free(0, f)                 |--->获取malloc_state                    这里需要先描述一下malloc_trunk结构的含义:                   struct malloc_chunk {                      size_t               prev_foot; /* Size of previous chunk (if free). */                      size_t               head;       /* Size and inuse bits. */                      struct malloc_chunk* fd;         /* double links -- used only if free. */                      struct malloc_chunk* bk;                    };                   如果当前malloc_chunk被使用,那么下一个malloc_chunk的head的pinuse位会被置位,而且它(下一个                   chunk)的prev_foot = malloc_state ^ mparams.magic. 如果当前块未被使用,那么它(当前块)的                   prev_foot是上一个块的大小,而且下一个块的pinuse不会被置位,而且它(下一个chunk)的prev_foot表                   示上一块的大小。                                        (prev_foot的最低位是用于表示该块是否为操作系统的真正分配的内存)                                        根据malloc_chunk的状态进行不同的"释放"处理:                    i.如果当前块是从操作系统中分配,那么返还给操作系统HeapFree                    ii.[向前合并]如果当前块的前一块空闲,那么将这两块(不可能同时出现3块同时空闲,而且但前块在最                       后一块"FFN")一起处理                       a.如果首块地址不同于malloc_state的dv(它的作用是保存连续空间中中间释放的连续块,对于先申请                          先释放的应用来说,这种处理方式会有好处,因为在分配的时候会先检查dv是否能满足需求),那么                          根据块的大小分别是"存放"到不同的地方等待复用unlink_chunk                       b.如果下一块正在被使用,那么修改下一块的prev_foot和pinuse标志位                    iii.[向后合并]如果下一个块空闲,那么将当前块和下一块合并处理                       a.如果下一个块已经是top(末尾的空闲块),那么更新top的指向(扩容)                       b.如果下一个块是dv,那么将当前块合并到dv中                       c.如果都不是,那么简单地释放下一个块,并修改下一块地prev_foot,pinuse                         unlink_chunk(fm, next, nsize);                         set_size_and_pinuse_of_free_chunk(p, psize);                    iv.如果下一块正在使用,那么简单修改下一块的标志set_free_with_pinuse(p, psize, next)                                        对于没有合并到"空闲"空间中的块,根据块的大小,挂接到不同的链表(树)中                    if (is_small(psize)) {                       insert_small_chunk(fm, p, psize);                    }                    else {                       tchunkptr tp = (tchunkptr)p;                       insert_large_chunk(fm, tp, psize);                    }                                        这里需要补充一下malloc_state的smallbins成员的使用:                    所有"释放"到malloc_state的空闲内存块会连成双向链表,而smallbins中pref_foot和head是不直接使用                    的,smallbins的大小是为了访问fd和bk两个指针而设计的。smallbins实际上是将链表中按照内存块的的                    大小分段保存链表的指针,方便在分配时查找。                    (理解了这个,那么insert_small_chunk的处理流程就比较简单了)                                        现在看看比较大的内存块的处理思想:                    "大块"内存的"释放"是放到"树中的,树的结构根据内存块的大小(256为单位)按照类似"哈夫曼"编码的的              形式划分到二叉树中,树的每个节点是一个双向链表,保存了大小相同的块的指针。(思路清楚了,加              入、删除节点的代码比较容易理解,这里不再展开)需要注意的是这里malloc_stat的treebins成员保存的是              树(块区域大小)的开始指针(很简单的使用方式),它的用法和smallbins的"似结构体非结构体"的特殊用              法不同。                        3.扩展分配nedprealloc函数     这个函数是nedpmalloc -> memcpy -> nedpfree的组合,这里不展开了,需要注意的是,如果新申请的空间比原来的空间小,那么是直接返回原来的空间的。    

    现在,我们再看看内存分配最终的入口mspace_malloc的实现(对着mspace_free来看,比较容易理解)4.内存分配逻辑    mspace_malloc        |    i.如果请求的块小于MAX_SMALL_REQUEST,首先尝试在smallbins中分配      b = smallbin_at(ms, idx);      p = b->fd;      unlink_first_small_chunk(ms, b, p, idx);      set_inuse_and_pinuse(ms, p, small_index2size(idx));      注意,为了提高重用成功率,这里允许使用使用比实际请求大小大一阶(下一个块对齐大小)的块          |(如果分配不成功)      如果请求的块大于malloc_state的dvsize(上一个空洞块留下的空隙):        i.smallbin非空,那么在smallbin中分配后检查是否可以替换原来的dv块            if (SIZE_T_SIZE != 4 && rsize < MIN_CHUNK_SIZE){...}            else{... replace_dv(ms, r, rsize);}        ii.从treebin中分配tmalloc_small()                               |                     根据请求大小计算树的根(开始查找最小匹配块的根)                     compute_bit2idx(leastbit, i);                     v = t = *treebin_at(m, i);                               |                     查找最小的匹配块while ((t = leftmost_child(t)) != 0){...}                     并将分配后留下的空闲块设置到dv中                     unlink_large_chunk(m, v);                     replace_dv(m, r, rsize);   ii.如果申请大小大于MAX_REQUEST,实际上会失败   iii.计算块对齐大小pad_request(bytes),并从树中分配        tmalloc_large(ms, nb)           |        tmalloc_large和tmalloc_small的主要不同是:        a.tmalloc_large首先根据大小计算"最接近"的节点,并从该节点开始计算"最小的"满足需求的节点        b.如果"最接近节点"为空,tmalloc_large允许扩展一阶大小来寻找"最小的"满足需求大的节点        (结合malloc_tree_chunk和块的组织方式,代码比较容易理解)           iv.如果请求大小小于dvsize,那么从dv中分配      mchunkptr p = ms->dv;      mchunkptr r = ms->dv = chunk_plus_offset(p, nb);      ms->dvsize = rsize;   v.如果请求大小小于topsize,那么从malloc_state的top块中分配   vi.从系统空间中分配sys_alloc(ms, nb);      sys_alloc兼容了多个平台分配机制,通过不同宏来开关对应的代码段,对于Win32来说,最终会调用HeapAlloc      sys_alloc流程:      按照块对齐和附加内存管理结构(如malloc_state)计算内存块的大小      -->不同平台下使用不同的系统函数分配"物理内存"(系统内存),并将得到的内存             |(这里主要不同宏控制的代码,比较简单,不展开了)             |      如果malloc_state不含有真正的可用内存(top为空),那么初始化它init_bins,init_top      如果malloc_state已经初始化,那么检查是否可以将top中剩下的空间合并到新分配的空间中(只有在可连续分配扩展的      情况下才有效),并重新初始化init_top, 这里合并分了两种情况:        a.新分配的块在某个分快后,并和前一个分块在地址空间上相连,而且前一分块空间包含top          while (sp != 0 && tbase != sp->base + sp->size)            sp = (NO_SEGMENT_TRAVERSAL) ? 0 : sp->next;          segment_holds(sp, m->top)        b.某一个现有的分快紧接着新分配的块,这时需要将原来的块合并到新分配的块prepend_alloc        c.a和b都不满足的情况下,将新块加入到块链表add_segment(m, tbase, tsize, mmap_flag),并重新设置top          |          |       从top中分配内存          好了,现在我们对nedmalloc的处理思想和算法实现都比较清楚了(在*nix平台下还有一些细节这里没有列处理,可以查看代码),下面概括一下:    1.使用连续的内存分段思想管理大片的连续内存    2.从1的内存块中以块对齐方式分配内存,小的内存分块放到线程的TLS指定的cache双向链表中,大的分块放到树结构中    3.树结构是以类似哈夫曼编码的方式组织的(以块大小编码),每个内部节点是一个双向链表    4.外部内存申请:thread cache->线程公用内存池; 释放:线程cache链表->内存节点树

     

    http://hi.baidu.com/419836321/blog/item/1090ab2fac35555d4fc22639.html


    最新回复(0)