<div dir="ltr">Caro Marcus,<div>il 17-22 settembre 2002 ho avuto il piacere di conoscere Pedro in un convegno internazionale di fisici, biologi, chimici, etc.sul tema "Energy and information transfer in biological systems"ad Acireale (Catania). Fui invitato dai miei colleghi fisici della Facoltà di Ingegneria di Catania, con i quali avevo un bel rapporto ed essi conoscevano la mia teoria del valore economico basata sulla combinazione creativa di energia e informazione. Avevo incominciato a parlare e scrivere di entropia economica o economia entropica nel 1977. Nel 1983-1989 in "Economia dei beni culturali" ho fatto un passo avanti definendo la mia teoria del valore l'insieme di Informazione (al posto del lavoro) e di neg-entropia (al posto dell'energia libera  trasformabile in materia e viceversa per la legge della "relatività ristretta" di A. Einstein): anzi o addirittura incominciai a  scrivere di "capitalizzazione economica" e "capitalizzazione naturale", cioè,</div><div>  <i style="font-family:Arial,sans-serif;font-size:11pt;text-align:justify;text-indent:14.2pt"><span style="font-size:12pt;font-family:"Times New Roman",serif">R<sub>n</sub> </span></i><span style="text-align:justify;text-indent:14.2pt;font-size:12pt;font-family:"Times New Roman",serif">= <i>Vr </i>≈ spazio–tempo ≈ <i>mc</i><sup>2</sup> = <i>E</i> oppure
1/<i>r</i>= <i>V</i>/<i>R<sub>n</sub></i> ≈
spazio–tempo ≈ <i>m</i>/<i>E</i> = 1/<i>c</i><sup>2</sup></span></div><div><span style="font-family:"Times New Roman",serif;font-size:12pt;text-align:justify;text-indent:14.2pt"> </span>  (entrando così nel campo della relatività generale).<br></div><div>Quindi non esiste solo il concetto di entropia, ma anche quello di neg-entropia, il quale manco a farlo apposta è stato introdotto e usato da E. Schrodinger, Nobel per la sua equazione fondamentale per la meccanica quantistica,  in "Che cos'è la vita?" : egli usa il concetto di neg-entropia al posto di energia libera per evitare confusione tra energia e energia libera:</div><div>--(entropia) = k log (1/D), dove D è una misura del disordine e 1/D è una misura dell'ordine.</div><div>Schrodinger:</div><div>- scopre come la cellula sia governata da un codice iscritto nei geni e suggerisce  l'ipotesi più affascinante: la molecola del gene deve essere un cristallo aperiodico;</div><div>-inoltre aggiunge, chiedendosi cos'è l'entropia, "che essa non è un'idea o un concetto vago, ma una quantità fisica misurabile, esattamente  come la lunghezza di una sbarretta, la temperatura in ogni punto di un corpo, il calore di fusione di un dato cristallo o il calore specifico di una sostanza qualsiasi".</div><div>Del resto la legge dell'entropia è proprio la seconda legge della termodinamica di cui si sono occupati Planck, Boltzmann, Carnot, Clausius, etc. E la termodinamica è una branca della fisica che studia la realtà fisica o naturale. Sono stato tra i primi a inserire nell'analisi economica la neg-entropia o informazione, proprio a partire dall'economia dei beni culturali o del patrimonio architettonico-ambientale.</div><div>Per non parlare delle strutture dissipative di Ilya prigogine che creano ordine(neg-entropia) dal disordine (entropia) mediante fluttuazioni o instabilità.</div><div>Non bisogna nemmeno confondere i bit di entropia di Shannon e Weaver che rappresentano, in un certo qual modo, una rappresentazione dell'informazione matematica che può diventare una comunicazione trasmissibile solo sovrapponendo un s-codice all'equipropabilità del sistema di partenza al fine di dominarlo comunicativamente. Solo così si ottiene un'informazione semantica o semiotico-ermeneutica.</div><div>Dell'entropia fuzzy ho parlato altre volte, soprattutto nel paragrafo "32.8 L'essere fuzzy della mia concezione, La natura fuzzy dell'economia teorica e applicata" dell'ultimo capitolo di "Valore e valutazioni"".</div><div>Caro Marcus e cari tutti,</div><div>come si vede la questione è molto complessa ed è opportuno riflettere prima di fare affermazioni apodittiche che lasciano il tempo che trovano. Proprio per questo non bisogna mai smettere di studiare nella prospettiva dell'armonia del dis-accordo più che dell'accordo dell'armonia. Il primo non inganna mai, il secondo può essere ingannevole.</div><div>Un abbraccio e tante scuse per quanto dovesse risultare poco chiaro.</div><div>Francesco</div><div><br></div><div><br></div><div>.</div><div>.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Il giorno gio 30 lug 2020 alle ore 13:56 Marcus Abundis <<a href="mailto:55mrcs@gmail.com">55mrcs@gmail.com</a>> ha scritto:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">Francesco,</div><div dir="ltr"><br></div><div dir="ltr">From your post, roughly translated:</div><div dir="ltr">> it is not so onto-logical to see information as limited to biological life in the strict sense.<</div><div dir="ltr"><br></div><div dir="ltr">I am unsure of what you mean here . . . still, this discussion of `primary and secondary’, or contrasts in animate and in-ainmate matter – is ironic in claiming Life is primary, the main/only informatic consideration.</div><div dir="ltr"><br></div><div dir="ltr">The irony is that this glosses over our ONLY accepted scientific theory of information – Shannon Signal Entropy. Signal Entropy shows information as in-animate bits and wave forms. To next claim a similar role for Life, requires an exact/clear mapping of Signal Entropy and Life Entropy (the later is not even a defined term?!) I am unsure if such maps exist; please correct me if I am wrong. I know of MEPP (maximal entropy producing principle) but this requires a *closed* system, where Life stipulates *open* systems. Thus, I think most people argue INTUITIVELY for entropy-like roles in Life, cellular mechanics, etc. – but with NOTHING precisely defined or mapped (no unified theory exists – hence, endless FIS debate). I do not think a precise mapping of Signal Entropy and Thermodynamic Entropy (another closed system) even exists. The 'two entropies’ are instead *intuitively* related as similar mathematic forms. It is for their entropic 'un-reconciled-ness’ that Shannon and Weaver call information theory a 'disappointing and bizarre’ concept.</div><div dir="ltr"><br></div><div>This irony deepens when one considers the Standard Model of particle physics, and the periodic table – both in-animate informatic expressions, and both Life precursors.</div><div dir="ltr"><br></div><div dir="ltr">If we are to speak of or propose an *actual* information SCIENCE we need to move beyond intuitive notions and arguments. Of course, we begin with intuition, pre force, but only as a starting point – moving beyond intuition is the essence of science. If not, we would never have seen beyond a geocentric cosmos and a 'flat earth’.</div><div dir="ltr"><br></div><div>Marcus</div></div></div></div></div>
_______________________________________________<br>
Fis mailing list<br>
<a href="mailto:Fis@listas.unizar.es" target="_blank">Fis@listas.unizar.es</a><br>
<a href="http://listas.unizar.es/cgi-bin/mailman/listinfo/fis" rel="noreferrer" target="_blank">http://listas.unizar.es/cgi-bin/mailman/listinfo/fis</a><br>
----------<br>
INFORMACIÓN SOBRE PROTECCIÓN DE DATOS DE CARÁCTER PERSONAL<br>
<br>
Ud. recibe este correo por pertenecer a una lista de correo gestionada por la Universidad de Zaragoza.<br>
Puede encontrar toda la información sobre como tratamos sus datos en el siguiente enlace: <a href="https://sicuz.unizar.es/informacion-sobre-proteccion-de-datos-de-caracter-personal-en-listas" rel="noreferrer" target="_blank">https://sicuz.unizar.es/informacion-sobre-proteccion-de-datos-de-caracter-personal-en-listas</a><br>
Recuerde que si está suscrito a una lista voluntaria Ud. puede darse de baja desde la propia aplicación en el momento en que lo desee.<br>
<a href="http://listas.unizar.es" rel="noreferrer" target="_blank">http://listas.unizar.es</a><br>
----------<br>
</blockquote></div>