<div dir="ltr"><div class="gmail_default" style="font-family:courier new,monospace"><br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Jul 30, 2014 at 5:22 PM,  <span dir="ltr">&lt;<a href="mailto:Valdis.Kletnieks@vt.edu" target="_blank">Valdis.Kletnieks@vt.edu</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="">On Wed, 30 Jul 2014 15:06:39 -0500, Xin Tong said:<br>
<br>
<br>
&gt; 2. modify the kernel (maybe extensively) to allocate 2MB page by default.<br>
<br>
</div>How fast do you run out of memory if you do that every time you actually<br>
only need a few 4K pages?  (In other words - think what that isn&#39;t the<br>
default behavior already :)<br></blockquote><div><br></div><div class="gmail_default" style="font-family:&#39;courier new&#39;,monospace">​I am planning to use this only for workloads with very large memory footprints, e.g. hadoop, tpcc, etc. </div>
<div class="gmail_default" style="font-family:&#39;courier new&#39;,monospace"><br></div><div class="gmail_default" style="font-family:&#39;courier new&#39;,monospace">BTW, i see Linux kernel uses the hugetlbfs to manage hugepages. every api call, mmap, shmget​, etc, all create a hugetlbfs before the hugepages can be allocated. why can not huge pages be allocated the same way as 4K pages ? whats the point of having the hugetlbfs. </div>
<div class="gmail_default" style="font-family:&#39;courier new&#39;,monospace"><br></div><div class="gmail_default" style="font-family:&#39;courier new&#39;,monospace">Xin</div></div><br></div></div>