<!doctype html>
<html>
 <head> 
  <meta charset="UTF-8"> 
 </head>
 <body>
  <div style="font-size: 12pt; font-family: helvetica,arial,sans-serif; color: #333333;">
   <span style="font-family: helvetica; font-size: 12pt;">From my perspective the reasons why Linux was selected for data centers had little to do with efficiency of electric power usage and more to do with:<br><br>o licensing cost<br>o license management<br>o management of systems<br>o Mean time to fix security problems<br>o Availability of needed application functionality<br><br>and other factors.<br><br>Of course saving money in electricity is important, and its counter of saving money on electricity for cooling too, but I think this is mostly around the actual application load.<br><br>In large farms that simply do storage of data, the amount of electrical power in the actual storage of data is more the function of the hardware used (hard disk vs SSD).  But if the application is bit coin mining or AI which heavily use GPUs then the amount of electricity (and cooling) will be much higher.<br><br>"Back in the day" when supercomputers like Cray, Control Data and others ruled the market their use of electricity was legendary.   A Cray-1 was rumored to produce enough hot water to heat 10 homes in Toronto, Canada.   The cost of a supercomputer was so high that very few agencies could afford one.<br><br>Then the traditional "Beowulf" system was designed at NASA, made of commodity boxes and using decomposition of the problem reduced the cost of the hardware to about 1/40th of the price of a comparatively powered supercomputer.<br><br>For a while if you looked at the list of the 500 fastest computers in the world (i.e. the greatest number of nodes, the greatest number of CPUs, the greatest number of cores) there were one or two that ran windows as the operating system.   But as more and more larger and faster computers were commissioned, those two computers went further down the list until they disappeared.  Did that mean that Linux was "more efficient", or did it mean that more and more people knew how to build HPC systems using Linux and it was simply too expensive to find people that knew how to use Windows in that environment.<br><br>Of course HPC computers typically are oriented to "compute" and modern cloud systems are more oriented to a mixture of data storage and compute.<br><br>In the early days of Linux I met with the head systems administrator of Deutsche Bank in Germany.  He had 3000 Linux servers at the time.   I asked him why he used Linux and not Windows NT.   He told me that he had 4 systems administrators to manage his 3000 servers, and if he were to use Windows NT he would need 2999 systems administrators.<br><br>Of course we now have great systems administration applications, both closed source and Open Source, but this issue of per-system license price is still an issue.<br><br>In the end if server farms really use 9% of the electricity we should make sure that those servers and applications are as efficient as possible and (unfortunately) when I try to discuss this with people I often get the words "memory is cheap", "get a faster cpu", "networking is fast", and most do not spend the time with optimizations after the application works.<br><br>I noticed that someone mentioned desktop computers.   These days they often use 350-450 watts of power, with some gaming computers using 1000-2000 watts (and water cooling!)   If you leave these on all the time, and particularly in hot climates, you not only use power to run the systems, but power to cool them.<br><br>I am working on a project to use thin clients (using less than 20 watts) to act as display modules, and do the heavy computing on a local server, shared by many people.   These servers can be tuned to turn off units that are not being used.   This will use redundancy to create high availability.<br><br>This has been a lot of writing and typing to try and push the point that datacenter managers will try to use the best, most efficient of systems, whether it be electricity, licenses, management or whatever.<br><br>Peace out.<br><br>maddog<br></span>
  </div> 
  <blockquote type="cite"> 
   <div>
    On 05/31/2024 3:55 PM EDT Jim Kinney via Ale <ale@ale.org> wrote:
   </div> 
   <div>
     
   </div> 
   <div>
     
   </div> 
   <div dir="auto">
    So far the giant cloud systems and super computers run Linux. And those monsters suck down power like it free. In fact, that's why datacenters get built where they do - cheaper power.  
    <div dir="auto">
      
    </div> 
    <div dir="auto">
     In terms of efficiency, think FLOPS/Watt, the compute style matters. Is it raw number crunching or IO heavy? Those GPUs are very amperage hungry but flops/watt are more efficient than a general purpose cpu. AMD still outpaces Intel in the cpu flops/watt race. 
    </div> 
    <div dir="auto">
      
    </div> 
    <div dir="auto">
     I don't see Microsoft servers being the beast behind the datacenter power hogs. I do see almost all aspects of datacenter power, cooling, and access management being run by microsoft servers. But that's 4-5 servers in a datacenter. 
    </div> 
    <div dir="auto">
      
    </div> 
    <div dir="auto">
     Linux won. I got that car tag a long time ago.
    </div> 
    <div dir="auto">
      
    </div> 
    <div dir="auto">
     LINUX1
    </div> 
    <div dir="auto">
      
    </div> 
    <div dir="auto">
      
    </div> 
   </div> 
   <br> 
   <div class="gmail_quote"> 
    <div class="gmail_attr" dir="ltr">
     On Fri, May 31, 2024, 1:07 PM Solomon Peachy via Ale <<a href="mailto:ale@ale.org">ale@ale.org</a>> wrote:
    </div> 
    <blockquote>
     On Fri, May 31, 2024 at 12:43:39PM -0400, Bob Toxen via Ale wrote:
     <br>> Datacenters may use as much as 9% of total U.S. electricity in six years.
     <br>> Home computers use some too.
     <br>> 
     <br>> Since Linux uses roughly half the electricity as Windows, switching to Linux in the
     <br>> data centers will save a lot of electricity.  Get the treehuggers to champion this.
     <br>
     <br>The overwhelming majority of the systems in datacenters are already 
     <br>running Linux.  So what you're saying is that, Linux is, by 
     <br>itself, responsible for nearly 9% of total US electrical consumption. [1]
     <br>
     <br>...And I should point out that if you put Linux vs Windows on modern 
     <br>laptop harwdare, the odds are high that Windows actually uses less, both 
     <br>when on-but-otherwise-idle and in a suspended state.
     <br>
     <br>(This is even more true when comparing Linux vs MacOS on Apple hardware)
     <br>
     <br>[1] Excluding cooling, which can be up to half of that energy usage..
     <br>
     <br> - Solomon
     <br>-- 
     <br>Solomon Peachy                        pizza at shaftnet dot org (email&xmpp)
     <br>                                      @pizza:shaftnet dot org   (matrix)
     <br>Dowling Park, FL                      speachy (libera.chat)
     <br>_______________________________________________
     <br>Ale mailing list
     <br><a href="mailto:Ale@ale.org" target="_blank" rel="noopener">Ale@ale.org</a>
     <br><a href="https://mail.ale.org/mailman/listinfo/ale" target="_blank" rel="noopener">https://mail.ale.org/mailman/listinfo/ale</a>
     <br>See JOBS, ANNOUNCE and SCHOOLS lists at
     <br><a href="http://mail.ale.org/mailman/listinfo" target="_blank" rel="noopener">http://mail.ale.org/mailman/listinfo</a>
    </blockquote> 
   </div> _______________________________________________
   <br>Ale mailing list
   <br>Ale@ale.org
   <br>https://mail.ale.org/mailman/listinfo/ale
   <br>See JOBS, ANNOUNCE and SCHOOLS lists at
   <br>http://mail.ale.org/mailman/listinfo
  </blockquote>
 </body>
</html>