<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><br><div><div><br></div><blockquote type="cite">FWIW, we're getting some interesting asks from users for MPI_T pvars:<br><br>- underlying network data<br>  - But then how do you correlate it to MPI activity?  Not as easy as you would think.<br>- other hardware / environment data<br>  - CPU temperature, fan speed, ...etc. (think: IPMI-like data)<br>  - Should these be reported once per server, or in every MPI process?<br>- stats that have traditionally been exposed via PMPI<br>  - E.g., number of times MPI_Send was invoked<br>- other MPI layer data<br>  - E.g., average depth of unexpected queue<br><br>Of this list, I think "other MPI layer data" is the only type of data I expected to expose via MPI_T (i.e., it's kinda what we designed MPI_T for).  The others are all use cases that I was not previously expecting.  Interesting.<br></blockquote><div><br></div>Some of these are out of the scope that I would expected to be provided by MPI_T and could be provided by other libraries. I agree that I imagined it would be information specific to the MPI library or whatever it was already collecting. But, you are right, interesting!</div><div><br></div><div>Kathryn</div><div><br><blockquote type="cite"><br><br><br>On Dec 4, 2013, at 10:20 AM, Kathryn Mohror <<a href="mailto:kathryn@llnl.gov">kathryn@llnl.gov</a>> wrote:<br><br><blockquote type="cite">Yes. I'll put it on the agenda.<br><br>Kathryn<br><br>On Dec 4, 2013, at 3:27 AM, Jeff Squyres (jsquyres) <<a href="mailto:jsquyres@cisco.com">jsquyres@cisco.com</a>> wrote:<br><br><blockquote type="cite">Can we add this to the agenda to discuss next week?<br><br><br>On Dec 4, 2013, at 1:05 AM, "Schulz, Martin" <<a href="mailto:schulzm@llnl.gov">schulzm@llnl.gov</a>> wrote:<br><br><blockquote type="cite">I think this could be interesting and helpful, but wouldn't this be expensive in the implementation, at least for some variables? Would we need some way to say which variables can be read atomically?<br><br>Martin <br><br><br>On Dec 3, 2013, at 2:27 PM, "Jeff Squyres (jsquyres)" <<a href="mailto:jsquyres@cisco.com">jsquyres@cisco.com</a>><br>wrote:<br><br><blockquote type="cite">I'm trolling through SC-accumulated emails and saw one that prompted me to ask here (I think I asked about this before, but don't remember): is there any interest in atomic vector reads of MPI_T variables?<br><br>I ask because, especially for pvars, if you loop over reading a bunch of them, they're not atomic, and you might not get consistent values.  But if you can issue a single MPI_T read for N values all at once, you have a much better chance of getting an atomic/consistent set of values.<br><br>-- <br>Jeff Squyres<br><a href="mailto:jsquyres@cisco.com">jsquyres@cisco.com</a><br>For corporate legal information go to: http://www.cisco.com/web/about/doing_business/legal/cri/<br><br>_______________________________________________<br>mpiwg-tools mailing list<br>mpiwg-tools@lists.mpi-forum.org<br>http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-tools<br></blockquote><br>________________________________________________________________________<br>Martin Schulz, <a href="mailto:schulzm@llnl.gov">schulzm@llnl.gov</a>, <a href="http://people.llnl.gov/schulzm">http://people.llnl.gov/schulzm</a><br>CASC @ Lawrence Livermore National Laboratory, Livermore, USA<br><br><br><br>_______________________________________________<br>mpiwg-tools mailing list<br><a href="mailto:mpiwg-tools@lists.mpi-forum.org">mpiwg-tools@lists.mpi-forum.org</a><br>http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-tools<br></blockquote><br><br>-- <br>Jeff Squyres<br><a href="mailto:jsquyres@cisco.com">jsquyres@cisco.com</a><br>For corporate legal information go to: http://www.cisco.com/web/about/doing_business/legal/cri/<br><br>_______________________________________________<br>mpiwg-tools mailing list<br>mpiwg-tools@lists.mpi-forum.org<br>http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-tools<br></blockquote><br>______________________________________________________________<br>Kathryn Mohror, <a href="mailto:kathryn@llnl.gov">kathryn@llnl.gov</a>, <a href="http://people.llnl.gov/mohror1">http://people.llnl.gov/mohror1</a><br>CASC @ Lawrence Livermore National Laboratory, Livermore, CA, USA<br><br><br><br><br>_______________________________________________<br>mpiwg-tools mailing list<br><a href="mailto:mpiwg-tools@lists.mpi-forum.org">mpiwg-tools@lists.mpi-forum.org</a><br>http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-tools<br></blockquote><br><br>-- <br>Jeff Squyres<br><a href="mailto:jsquyres@cisco.com">jsquyres@cisco.com</a><br>For corporate legal information go to: http://www.cisco.com/web/about/doing_business/legal/cri/<br><br>_______________________________________________<br>mpiwg-tools mailing list<br>mpiwg-tools@lists.mpi-forum.org<br>http://lists.mpi-forum.org/mailman/listinfo.cgi/mpiwg-tools<br></blockquote></div><br><div apple-content-edited="true">
<div style="color: rgb(0, 0, 0); font-family: Helvetica; font-size: medium; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div>______________________________________________________________<br>Kathryn Mohror, <a href="mailto:kathryn@llnl.gov">kathryn@llnl.gov</a>, <a href="http://people.llnl.gov/mohror1">http://people.llnl.gov/mohror1</a><br>CASC @ Lawrence Livermore National Laboratory, Livermore, CA, USA</div><div><br></div></div><br class="Apple-interchange-newline"><br class="Apple-interchange-newline">
</div>
<br></body></html>