<div dir="ltr"><div dir="ltr"><div><span style="line-height:1.5">As often happens, Im mistakenly sent my response to Marcus instead of, as I intended, to fis. I here post it to fis.</span></div><div dir="ltr"><span style="line-height:1.5"><br></span></div><div dir="ltr"><span style="line-height:1.5">On Fri, Jan 8, 2021 at 4:00 PM Stanley N Salthe <<a href="mailto:ssalthe@binghamton.edu">ssalthe@binghamton.edu</a>> wrote:</span><br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div dir="ltr">







<p>Stan – I am not really sure how to respond to your note. In your short <span style="line-height:1.5">paragraph you offer a catalogue of issues that lie far outside my view </span><span style="line-height:1.5">of information science, and I believe, the view of most other careful </span><span style="line-height:1.5">readers in information science.</span></p>
<p><span style="line-height:1.5"> – ‘Entropy applies everywhere, and always in the same way’</span><span style="line-height:1.5">> This argues that signal entropy and thermodynamic entropy are </span><span style="line-height:1.5">identical.</span></p>
<p>    S: I would not assert this!  Signal entropy is  variety of possibilities, while thermo entropy is possible diversity of locations of dispersed photons. So, formally there is a clear matching, although in thermo with see dispersion, while in information we see choice of one position from many possibilities. </p>
<p><span style="line-height:1.5">I know of no other FIS member that agrees with this view. </span><span style="line-height:1.5">Shannon and Weaver (1949) themselves referred to signal entropy</span><span style="line-height:1.5">as ‘disappointing and bizarre’, bizarre expressly because it differs so </span><span style="line-height:1.5">clearly from classic notions of thermodynamic entropy. </span></p>
<p>    S: It is a formal matching only.</p>
<p><span style="line-height:1.5">– ‘ . . . NOT problems for physicists’</span><span style="line-height:1.5">> Again, careful readers in physics know well of many force-Energy </span><span style="line-height:1.5">related issues. Dark energy and dark matter are wholly unexplained, </span><span style="line-height:1.5">gravity is poorly understood, no Unified Field Theory exists to detail </span><span style="line-height:1.5">force-Energy transitions or quantum-cosmic roles, matter/anti-matter </span><span style="line-height:1.5">asymmetry is yet another open issue, etc., etc. etc. And then we</span><span style="line-height:1.5">have thermodynamic energy as ONLY one of 16 accepted forms of </span><span style="line-height:1.5">energy where the interrelations between those 16 is unclear. I have </span><span style="line-height:1.5">seen three of four times where Richard Feynman during the course </span><span style="line-height:1.5">of a lecture comments on how interesting the issue of force-energy </span><span style="line-height:1.5">relations is . . . and then promptly walk off in an entirely different </span><span style="line-height:1.5">direction – leaving that one question hanging. I chuckle every time I </span><span style="line-height:1.5">see it.</span></p>
<p>     S: I pass on this </p>
<p><span style="line-height:1.5">In short, you seem to make my argument for me that ‘entropy’ is </span><span style="line-height:1.5">a concept often misused and abused, not even differentiating </span><span style="line-height:1.5">between signal and thermodynamics. Shannon in The Bandwagon </span><span style="line-height:1.5">(1956) cautioned against reckless and excess of the concept </span><span style="line-height:1.5">‘entropy’ – and here we are over 60 years later still dealing with this </span><span style="line-height:1.5">issue. Odd.</span></p>
<p>     S: I here stress conceptual similarity, not material difference. <span style="line-height:1.5">Entropy is referred to in many different particular ways, depending </span><span style="line-height:1.5">upon the application of the idea of dispersion/multiplicity -- in some cases we have </span><span style="line-height:1.5">the process of dispersion (entropy production), in some </span><span style="line-height:1.5">choice of one </span><span style="line-height:1.5">from many existing (e,g, already 'dispersed') possibilities (going the other way).</span></p>
<p>STAN</p></div></div></blockquote></div></div></div>