Thanks for the wiki link, will check. But, quite right, we need to maximize the bandwidth utilization of each link in the chain as it were, drives, controller, host slot, more than enough is of no use, who can drink from a fire hose?<br>
<br>We&#39;re talking server grade stuff here, no &#39;home brew&#39; mobos, this is a board of realtors office and they don&#39;t want no stinkin down time, in so far as possible/affordable.<br><br><div class="gmail_quote">
On Tue, Jul 28, 2009 at 2:19 PM, Jim Kinney <span dir="ltr">&lt;<a href="mailto:jim.kinney@gmail.com">jim.kinney@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
There are some rather fast pci bus config around but you need serious<br>
mobo data to know for sure. Most home-user pc&#39;s are crap with even<br>
multiple pcie sharing a common interconnect.<br>
<br>
For numbers on device bandwidth, see here:<br>
<a href="http://en.wikipedia.org/wiki/List_of_device_bandwidths" target="_blank">http://en.wikipedia.org/wiki/List_of_device_bandwidths</a><br>
<br>
You don&#39;t want more devices on a card than the slot it&#39;s plugged into<br>
can take :-)<br>
<div><div></div><div class="h5"><br>
On Tue, Jul 28, 2009 at 1:37 PM, Greg Clifton&lt;<a href="mailto:gccfof5@gmail.com">gccfof5@gmail.com</a>&gt; wrote:<br>
&gt; Hi Jim,<br>
&gt;<br>
&gt; You do mean PCIe these days, don&#39;t you? Being serial point to point data<br>
&gt; xfer resolves the bus contention issue, no? Ain&#39;t much in the way of<br>
&gt; multi-PCI bus mobos to be had any more as the migration to PCIe is in full<br>
&gt; swing. I expect PCI will be SO 20th century by Q1 &#39;10.<br>
&gt;<br>
&gt; What about a single 12, 16, or 24 drive RAID controller from 3Ware or Areca<br>
&gt; (PCIe x8 native, I believe for both now). I&#39;m sure it is much greater than<br>
&gt; PCI (even PCIX @ 133MHz ~ 800mb/s), but what is the bandwidth on PCIe<br>
&gt; anyways?<br>
&gt;<br>
&gt; You are basically talking RAID 10 type configuration, no? Using the entire<br>
&gt; drive vs. short stroking so no complications in prepping a replacement<br>
&gt; drive, good thought.<br>
&gt;<br>
&gt; As Richard suggested, customer is interested in some sort of mirrored/load<br>
&gt; balanced/failover setup with 2 systems (if it fits the budget). How to, is<br>
&gt; where I am mostly clueless.<br>
&gt;<br>
&gt; Thanks,<br>
&gt; Greg<br>
&gt;<br>
&gt; On Tue, Jul 28, 2009 at 12:24 PM, Jim Kinney &lt;<a href="mailto:jim.kinney@gmail.com">jim.kinney@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; multi-pci bus (not just multi pci _slot_) mobo with several add-on<br>
&gt;&gt; SATA300 cards. Hang fast drives from each card matching the aggregate<br>
&gt;&gt; drive throughput to the bandwidth of the pci bus slot. Make pairs of<br>
&gt;&gt; drives on different cards be mirrors. Join all mirror pairs into a<br>
&gt;&gt; stripped array for speed.<br>
&gt;&gt;<br>
&gt;&gt; Use entire drive for each mirror slice so any failure is just a drive<br>
&gt;&gt; replacement. Add extra cooling for the drives.<br>
&gt;&gt;<br>
&gt;&gt; On Tue, Jul 28, 2009 at 11:35 AM, Greg Clifton&lt;<a href="mailto:gccfof5@gmail.com">gccfof5@gmail.com</a>&gt; wrote:<br>
&gt;&gt; &gt; Hi Guys,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I am working on a quote for a board of realtors customer who has ~ 6000<br>
&gt;&gt; &gt; people hitting his database, presumably daily per the info I pasted<br>
&gt;&gt; &gt; below.<br>
&gt;&gt; &gt; He wants fast reads and maximum up time, perhaps mirrored systems. So I<br>
&gt;&gt; &gt; though I would pick you smart guys brains for any suggestions as to the<br>
&gt;&gt; &gt; most<br>
&gt;&gt; &gt; reliable/economical means of achieving his goals. He is thinking in<br>
&gt;&gt; &gt; terms of<br>
&gt;&gt; &gt; some sort of mirror of iSCSI SAN systems.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Currently we are only using 50G of drive space, I do not see going above<br>
&gt;&gt; &gt; 500G for many years to come. What we need to do is to maximize IO<br>
&gt;&gt; &gt; throughput, primarily read access (95% read, 5% write). We have over<br>
&gt;&gt; &gt; 6,000<br>
&gt;&gt; &gt; people continually accessing 1,132,829 Million (as of today) small (&lt;1M)<br>
&gt;&gt; &gt; files.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Tkx,<br>
&gt;&gt; &gt; Greg Clifton<br>
&gt;&gt; &gt; Sr. Sales Engineer<br>
&gt;&gt; &gt; CCSI.us<br>
&gt;&gt; &gt; 770-491-1131 x 302<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt; Ale mailing list<br>
&gt;&gt; &gt; <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt;&gt; &gt; <a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; --<br>
&gt;&gt; James P. Kinney III<br>
&gt;&gt; Actively in pursuit of Life, Liberty and Happiness<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Ale mailing list<br>
&gt;&gt; <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt;&gt; <a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Ale mailing list<br>
&gt; <a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
&gt; <a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
&gt;<br>
&gt;<br>
<br>
<br>
<br>
--<br>
--<br>
James P. Kinney III<br>
Actively in pursuit of Life, Liberty and Happiness<br>
_______________________________________________<br>
Ale mailing list<br>
<a href="mailto:Ale@ale.org">Ale@ale.org</a><br>
<a href="http://mail.ale.org/mailman/listinfo/ale" target="_blank">http://mail.ale.org/mailman/listinfo/ale</a><br>
</div></div></blockquote></div><br><input id="gwProxy" type="hidden"><input onclick="jsCall();" id="jsProxy" type="hidden"><div id="refHTML"></div>