<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
Not opposed to ditching segmented addressing at all.  We'd need a ticket for this ASAP, though.
<div class=""><br class="">
</div>
<div class="">This whole conversation is predicated on:</div>
<div class=""><br class="">
</div>
<div class="">- MPI supposedly supports segmented addressing</div>
<div class="">- MPI_Aint is not sufficient for modern segmented addressing (i.e., representing an address that may not be in main RAM and is not mapped in to the current process' linear address space)</div>
<div class=""><br class="">
</div>
<div class="">If we no longer care about segmented addressing, that makes a whole bunch of BigCount stuff a LOT easier.  E.g., MPI_Aint can basically be a non-segment-supporting address integer.  AINT_DIFF and AINT_SUM can go away, too.</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
<div><br class="">
<blockquote type="cite" class="">
<div class="">On Oct 24, 2019, at 5:35 PM, Jeff Hammond via mpiwg-large-counts <<a href="mailto:mpiwg-large-counts@lists.mpi-forum.org" class="">mpiwg-large-counts@lists.mpi-forum.org</a>> wrote:</div>
<br class="Apple-interchange-newline">
<div class="">
<div dir="ltr" class="">Rolf:
<div class=""><br class="">
Before anybody spends any time analyzing how we handle segmented addressing, I want you to provide an example of a platform where this is relevant.  What system can you boot today that needs this and what MPI libraries have expressed an interest in supporting it?</div>
<div class=""><br class="">
</div>
<div class="">For anyone who didn't hear, ISO C and C++ have finally committed to twos-complement integers (<a href="http://www.open-std.org/jtc1/sc22/wg21/docs/papers/2018/p0907r1.html" class="">http://www.open-std.org/jtc1/sc22/wg21/docs/papers/2018/p0907r1.html</a>, <a href="http://www.open-std.org/jtc1/sc22/wg14/www/docs/n2218.htm" class="">http://www.open-std.org/jtc1/sc22/wg14/www/docs/n2218.htm</a>)
 because modern programmers should not be limited by hardware designs from the 1960s.  We should similarly not waste our time on obsolete features like segmentation.</div>
<div class=""><br class="">
</div>
<div class="">Jeff</div>
</div>
<br class="">
<div class="gmail_quote">
<div dir="ltr" class="gmail_attr">On Thu, Oct 24, 2019 at 10:13 AM Rolf Rabenseifner via mpiwg-large-counts <<a href="mailto:mpiwg-large-counts@lists.mpi-forum.org" class="">mpiwg-large-counts@lists.mpi-forum.org</a>> wrote:<br class="">
</div>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
> I think that changes the conversation entirely, right?<br class="">
<br class="">
Not the first part, the state-of-current-MPI.<br class="">
<br class="">
It may change something for the future, or a new interface may be needed.<br class="">
<br class="">
Please, can you describe how MPI_Get_address can work with the <br class="">
different variables from different memory segments.<br class="">
<br class="">
Or whether a completely new function or a set of functions is needed.<br class="">
<br class="">
If we can still express variables from all memory segments as <br class="">
input to MPI_Get_address, there may be still a way to flatten<br class="">
the result of some internal address-iquiry into a flattened<br class="">
signed integer with the same behavior as MPI_Aint today.<br class="">
<br class="">
If this is impossible, then new way of thinking and solution <br class="">
may be needed.<br class="">
<br class="">
I really want to see examples for all current stuff as you<br class="">
mentioned in your last email.<br class="">
<br class="">
Best regards<br class="">
Rolf<br class="">
<br class="">
----- Original Message -----<br class="">
> From: "Jeff Squyres" <<a href="mailto:jsquyres@cisco.com" target="_blank" class="">jsquyres@cisco.com</a>><br class="">
> To: "Rolf Rabenseifner" <<a href="mailto:rabenseifner@hlrs.de" target="_blank" class="">rabenseifner@hlrs.de</a>><br class="">
> Cc: "mpiwg-large-counts" <<a href="mailto:mpiwg-large-counts@lists.mpi-forum.org" target="_blank" class="">mpiwg-large-counts@lists.mpi-forum.org</a>><br class="">
> Sent: Thursday, October 24, 2019 5:27:31 PM<br class="">
> Subject: Re: [Mpiwg-large-counts] Large Count - the principles for counts, sizes, and byte and nonbyte displacements<br class="">
<br class="">
> On Oct 24, 2019, at 11:15 AM, Rolf Rabenseifner<br class="">
> <<a href="mailto:rabenseifner@hlrs.de" target="_blank" class="">rabenseifner@hlrs.de</a><mailto:<a href="mailto:rabenseifner@hlrs.de" target="_blank" class="">rabenseifner@hlrs.de</a>>> wrote:<br class="">
> <br class="">
> For me, it looked like that there was some misunderstanding<br class="">
> of the concept that absolute and relative addresses<br class="">
> and number of bytes that can be stored in MPI_Aint.<br class="">
> <br class="">
> ...with the caveat that MPI_Aint -- as it is right now -- does not support<br class="">
> modern segmented memory systems (i.e., where you need more than a small number<br class="">
> of bits to indicate the segment where the memory lives).<br class="">
> <br class="">
> I think that changes the conversation entirely, right?<br class="">
> <br class="">
> --<br class="">
> Jeff Squyres<br class="">
> <a href="mailto:jsquyres@cisco.com" target="_blank" class="">jsquyres@cisco.com</a><mailto:<a href="mailto:jsquyres@cisco.com" target="_blank" class="">jsquyres@cisco.com</a>><br class="">
<br class="">
-- <br class="">
Dr. Rolf Rabenseifner . . . . . . . . . .. email <a href="mailto:rabenseifner@hlrs.de" target="_blank" class="">
rabenseifner@hlrs.de</a> .<br class="">
High Performance Computing Center (HLRS) . phone ++49(0)711/685-65530 .<br class="">
University of Stuttgart . . . . . . . . .. fax ++49(0)711 / 685-65832 .<br class="">
Head of Dpmt Parallel Computing . . . <a href="http://www.hlrs.de/people/rabenseifner" rel="noreferrer" target="_blank" class="">
www.hlrs.de/people/rabenseifner</a> .<br class="">
Nobelstr. 19, D-70550 Stuttgart, Germany . . . . (Office: Room 1.307) .<br class="">
_______________________________________________<br class="">
mpiwg-large-counts mailing list<br class="">
<a href="mailto:mpiwg-large-counts@lists.mpi-forum.org" target="_blank" class="">mpiwg-large-counts@lists.mpi-forum.org</a><br class="">
<a href="https://lists.mpi-forum.org/mailman/listinfo/mpiwg-large-counts" rel="noreferrer" target="_blank" class="">https://lists.mpi-forum.org/mailman/listinfo/mpiwg-large-counts</a><br class="">
</blockquote>
</div>
<br clear="all" class="">
<div class=""><br class="">
</div>
-- <br class="">
<div dir="ltr" class="gmail_signature">Jeff Hammond<br class="">
<a href="mailto:jeff.science@gmail.com" target="_blank" class="">jeff.science@gmail.com</a><br class="">
<a href="http://jeffhammond.github.io/" target="_blank" class="">http://jeffhammond.github.io/</a></div>
_______________________________________________<br class="">
mpiwg-large-counts mailing list<br class="">
<a href="mailto:mpiwg-large-counts@lists.mpi-forum.org" class="">mpiwg-large-counts@lists.mpi-forum.org</a><br class="">
https://lists.mpi-forum.org/mailman/listinfo/mpiwg-large-counts<br class="">
</div>
</blockquote>
</div>
<br class="">
<div class=""><span class=""><br class="">
-- <br class="">
</span><span class="">Jeff Squyres<br class="">
</span><span class=""><a href="mailto:jsquyres@cisco.com" class="">jsquyres@cisco.com</a></span>
</div>
<br class="">
</div>
</body>
</html>