<html>
<head>
<style>
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
</style>
</head>
<body class='hmmessage'>
Hmm. There are modules of NWChem that have datasets capable of scaling from 1s to 100's of thousands of cores. You take a module that doesn't scale by its nature, say you prove that you can scale it with an incompatible model, and allowing NWChem to use 75% of compute power (try seeing your utilized flop rate) make a statement about it ... and this doesn't have anything to do with anything?<br><br><div>The particular hardware did not have good support for one-sided communication. It was a thin card that relied on host a lot and in this case, using the host gave some performance. </div><div><br></div><div>This in my opinion is a bad way of making a point about comparing two different models. Bills point about implementations hits its sweet spot here.</div><div><br></div><div>Please excuse my understanding if I am missing your point here.</div><div><br></div><div><br></div><div>> Date: Fri, 24 Apr 2009 17:18:27 -0700<br>> From: lindahl@pbm.com<br>> To: mpi-forum@lists.mpi-forum.org<br>> Subject: Re: [Mpi-forum] MPI One-Sided Communication<br>> <br>> On Fri, Apr 24, 2009 at 05:50:23PM -0400, Vinod Tipparaju wrote:<br>> <br>>> The scaling in the chart discussed below is immaterial because the<br>>> comparision point is flawed. I tried to convey this to some of the<br>>> developers on the phone a couple of years ago but invain. The fact<br>>> this claim of performance went no where beyond the white paper<br>>> should convey something. Did you know dft (siosi6) doesn't scale<br>>> (for various reasons) beyond 1k? <br>> <br>> Pretty much every code and dataset have a maximum scalability point. I<br>> don't see what that has to do with anything.<br>> <br>> The point of the chart is that a pure MPI-1 implementation scaled<br>> great and had great absolute performance on particular hardware/MPI,<br>> even though the developers were sure that specialized hardware &<br>> non-MPI underlying messaging software was needed.<br>> <br>> -- greg<br>> <br>> _______________________________________________<br>> mpi-forum mailing list<br>> mpi-forum@lists.mpi-forum.org<br>> http://lists.mpi-forum.org/mailman/listinfo.cgi/mpi-forum<br></div></body>
</html>