<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Hi Carlos,</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"> thanks for this nice introduction. Good topic.</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Please excuse my short provoking comments, which are directed towards the FIS community. </div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">I am simply trying to generate some food for thought.</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Feb 5, 2024 at 4:56 PM Carlos Gershenson <<a href="mailto:cgershen@gmail.com">cgershen@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>In the 1920s, David Hilbert's program attempted to get rid once and for all from the paradoxes in mathematics that had arisen from the work of Cantor, Russell, and others. </div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Hilbert failed and this should be remembered for generations to come and not make the same mistake.</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Therefore, I like Felix Klein's program, which is much more realistic and achievable.</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>Even when Hilbert’s PhD student — John von Neumann — was working avidly on demonstrating that mathematics were complete, consistent, and decidable, Kurt Gödel proved in the early 1930s that formal systems are incomplete and inconsistent, while Alan Turing proved in 1936 their undecidability (for which he proposed the "Turing Machine", laying the theoretical basis for computer science).</div><div><br></div><div>Digital computers have enabled us to study concepts and phenomena </div></div></blockquote><div><br></div><span style="color:rgb(0,0,0);font-family:-webkit-standard;font-size:medium"></span><div><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif">–<span class="gmail-Apple-converted-space"> </span></span><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif;color:rgb(192,0,0)">Rule based systems<span class="gmail-Apple-converted-space"> <span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">- like us :-)</span></span></span></div><div> </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>for which we did not have the proper tools beforehand, as they process much more information than the one our limited brains </div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Limited brains. This is perhaps what we, modern (humble) human beings, think of ourselves. However, if you read what Rudolf Steiner wrote 100+ years ago about the Atlantes and their epistemic nature, - consider it as a pure fiction, like the Star Wars saga - you will see that there are possible other human races with very large scale memory who do to apply the reasoning we are used to, but solve their problems on the base of past experience and retrieval of analogous situations from their memory - similar to analogous computing, something that we have recently delegated to our AI systems recently, although they tried mimicking human behavior in the past (alias "expert systems") in the Minsky's, Asimov's and Clarke's (HAL) era.</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>can manipulate. These include intelligence, life, </div></div></blockquote><div><br></div><span style="color:rgb(0,0,0);font-family:-webkit-standard;font-size:medium"></span><div><span style="color:rgb(192,0,0);font-family:Arial,sans-serif;font-size:12pt;background-color:yellow">- but we have set different rules for artificial intelligence and <span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">artificial </span>life<span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">, right?</span> -</span> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>and complexity.</div><div><br></div><div>Even when computers have served us greatly as "telescopes for complexity", the limits of formal systems are becoming even more evident, as we attempt to model and simulate complex phenomena in all their richness, which implies emergence, self-organization, downward causality, adaptation, multiple scales, semantics, and more.</div><div><br></div><div>Can we go beyond the limits of formal systems? Well, we actually do it somehow. It is natural to adapt to changing circumstances, so we can say that our "axioms" are flexible. </div></div></blockquote><div><br></div><div><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif;color:rgb(192,0,0);background-color:yellow">– but this is still the same paradigm – rules & laws</span><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif">:<span class="gmail-Apple-converted-space"> </span></span><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif;color:rgb(192,0,0);background-color:yellow">human beings are constructive and creative beings, so they <span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">obviously </span>need recipes<span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">, and rulers as well</span></span><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif">.<span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"> It must be human nature that has got used to limiting itself. It is not mathematics and computation as such.</span></span></div><div><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif"><span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"> </span></span></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>Moreover, we are able to simulate this process in computers. Similar to an interpreter or a compiler, we can define a formal system where some aspects of it can be modified/adapted. And if we need more adaptation, we can generalize the system so that a constant becomes a variable (similar to oracles in Turing Machines). </div></div></blockquote><div><br></div><span style="color:rgb(0,0,0);font-family:-webkit-standard;font-size:medium"></span><div><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif;color:rgb(192,0,0)">That’s called second order logic</span><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif">.</span></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>Certainly, this has its limits, but our adaptation is also limited: we cannot change our physics or our chemistry, although we have changed our biology with culture and technology.</div><div><br></div></div></blockquote><div><span style="color:rgb(192,0,0);font-family:Arial,sans-serif;font-size:medium">Our entire human science has been pre-set by our senses, so we have continued to sense in the same <span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">manner, ub the </span>direction of our senses even after having developed equipment like telescopes, microscopes and jet engines.</span></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div></div><div>Could it be that the problem lies not in the models we have, but in the modeling itself? We tend to forget the difference between our models and the modeled, between the map and the territory, between epistemology and ontology; simply because our language does not make a distinction between phenomena and our perceptions of them. </div></div></blockquote><div><br></div><div><span style="color:rgb(192,0,0);font-family:Arial,sans-serif;font-size:medium">Yes, going in this direction is part of the solution. But there is more.</span></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>When we say "this system is complex/alive/intelligent", we assume that these are inherent properties of the phenomenon we describe, forgetting that the moment we name anything, we are already simplifying and limiting it. </div></div></blockquote><div><br></div><div><span lang="EN-US" style="font-size:12pt;font-family:Arial,sans-serif;color:rgb(192,0,0)">That’s truly so: the real problem of our human nature and rule-based reasoning we cannot escape from. We always need causes and effects to reduce complexity.<span class="gmail-Apple-converted-space"> </span></span><span style="color:rgb(0,0,0);font-family:-webkit-standard;font-size:medium"></span><span style="color:rgb(192,0,0);font-family:Arial,sans-serif;font-size:medium">At the same time, we have programmed our digital computers and AI systems to do exactly the opposite: memorization and pattern matching of huge data sets.</span><span class="gmail-Apple-converted-space" style="color:rgb(192,0,0);font-family:Arial,sans-serif"> </span><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>It is clear that models/descriptions will never be as rich as the modeled/phenomena, and that is the way it should be. As Arbib wrote, “a model that simply duplicates the brain is no more illuminating than the brain itself”. [1]</div><div><br></div><div>Still, perhaps we're barking up the wrong tree. We also tend to forget the difference between computability in theory (Church-Turing's) and computability in practice (what digital computers do). There are non-Turing-computable functions which we can compute in practice, while there are Turing-computable functions for which there is not enough time in the universe to compute. </div></div></blockquote><div><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:medium;font-family:Calibri,sans-serif;color:rgb(0,0,0)"><span lang="EN-US" style="font-family:Arial,sans-serif;color:rgb(34,34,34)"> </span></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:medium;font-family:Calibri,sans-serif;color:rgb(0,0,0)"><span lang="EN-US" style="font-family:Arial,sans-serif;color:rgb(192,0,0)">Yes, but are those the only modes of operation we can imagine?</span></p></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>So maybe we are focussing on theoretical limits, while we should be concerned more with practical limits.</div><div><br></div><div>As you can see, I have many more questions than answers, so I would be very interested in what everyone thinks about these topics.</div><div><br></div><div>I'll just share some idea I've been playing with recently, although it might be that it won't lead anywhere. For lack of a better name, let's call them "multi-axiom systems". For example in geometry, we know that if we change the 5th axiom (about intersecting parallel lines), we can go from Euclidean to other geometries. </div></div></blockquote><div><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:medium;font-family:Calibri,sans-serif;color:rgb(0,0,0)"><span lang="EN-US" style="font-family:Arial,sans-serif;color:rgb(34,34,34)"> </span></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:medium;font-family:Calibri,sans-serif;color:rgb(0,0,0)"><span lang="EN-US" style="font-family:Arial,sans-serif;color:rgb(192,0,0)">In fact, this is what I asked Lou Kauffman in the previous exchange on Stu’s topic.</span></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:medium;font-family:Calibri,sans-serif;color:rgb(0,0,0)"><span lang="EN-US" style="font-family:Arial,sans-serif;color:rgb(192,0,0)">But again, axioms and rules. Is this the only way that mathematics as a way of making distinctions and reasoning about them can be created?</span></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:medium;font-family:Calibri,sans-serif;color:rgb(0,0,0)"><span lang="EN-US" style="font-family:Arial,sans-serif;color:rgb(192,0,0)">Could we not do more?</span></p></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>We can define a "multi-axiom geometry", so that we can switch between different versions of the 5th axiom for different purposes. </div></div></blockquote><div><br></div><div><span style="color:rgb(192,0,0);font-family:Arial,sans-serif;font-size:medium">Yes, this could be practical in computer graphics, where different kinds of spaces are appropriate to render different kinds of images and perspectives of them<span class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">, e.g. in multidimensional spaces.</span></span></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>In a similar way, we could define a multi-axiom system that contains several different formal systems. We know we cannot have all at once universal computation and completeness and consistency. But then, in first-order logic, we can have completeness and consistency. In second-order logic we have universal computation but not completeness. In paraconsistent logics we sacrifice consistency but gain other properties. Then, if we consider a multi-axiom system that includes all of these and perhaps more, in theory we could have in the same system all these nice properties, but not at the same time. Would that be useful? </div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Yes.</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div>Of course, we would need to find rules that would determine when to change the axioms. Just to relate this idea to last month's topic — as it was motivated by Stu's and Andrea's paper [2] — if we want to model evolution, we can have "normal" axioms at short timescales (and thus predictability), but at longer (evolutionary) timescales, we can shift axioms set, and then the "rules" of biological systems could change, towards a new configuration where we can use again "normal" axioms.</div></div></blockquote><div><br></div><div><span style="color:rgb(192,0,0);font-family:Arial,sans-serif;font-size:medium">But this is still the same rule-based system view of Homo sapiens sapiens.</span> </div><div><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">As you see, I just added more questions to those of Carlos. </div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Enjoy the discussion!</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Best,</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)">Plamen</div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;color:rgb(7,55,99)"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="line-break:after-white-space"><div></div><div><br></div><div><br></div><div>[1] Michael Arbib, The Metaphorical Brain 2. Neural Networks and Beyond (1989)</div><div>[2] Stuart Kauffman, Andrea Roli. Is the Emergence of Life an Expected Phase Transition in the Evolving Universe? <a href="https://urldefense.com/v3/__https://arxiv.org/abs/2401.09514v1__;!!D9dNQwwGXtA!Q9Wf2QzNb33Rbcm_rxf9I_P4EziZ3qwzNM9drNcS2M856SZcvJx6al-U8ZnYt5Fj0OfDWnNsNDd2RoZgOmc$" target="_blank">https://arxiv.org/abs/2401.09514v1 </a></div><br><br><div>
<div dir="auto" style="color:rgb(0,0,0);letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none;line-break:after-white-space"><div dir="auto" style="text-align:start;text-indent:0px;line-break:after-white-space"><div dir="auto" style="text-align:start;text-indent:0px;line-break:after-white-space"><div dir="auto" style="text-align:start;text-indent:0px;line-break:after-white-space"><div dir="auto" style="text-align:start;text-indent:0px;line-break:after-white-space"><div style="color:rgb(0,0,0);letter-spacing:normal;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none">Carlos Gershenson</div><div>SUNY Empire Innovation Professor <br>Department of Systems Science and Industrial Engineering<br><span>Thomas J. Watson College of Engineering and Applied Science<br>State University of New York at Binghamton<br>Binghamton, New York 13902 </span>USA<br></div><div style="color:rgb(0,0,0);letter-spacing:normal;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none"><a href="https://urldefense.com/v3/__https://tendrel.binghamton.edu__;!!D9dNQwwGXtA!Q9Wf2QzNb33Rbcm_rxf9I_P4EziZ3qwzNM9drNcS2M856SZcvJx6al-U8ZnYt5Fj0OfDWnNsNDd2yTKmSVg$" target="_blank">https://tendrel.binghamton.edu</a></div></div></div></div></div></div>
</div>
<br></div>_______________________________________________<br>
Fis mailing list<br>
<a href="mailto:Fis@listas.unizar.es" target="_blank">Fis@listas.unizar.es</a><br>
<a href="http://listas.unizar.es/cgi-bin/mailman/listinfo/fis" rel="noreferrer" target="_blank">http://listas.unizar.es/cgi-bin/mailman/listinfo/fis</a><br>
----------<br>
INFORMACIÓN SOBRE PROTECCIÓN DE DATOS DE CARÁCTER PERSONAL<br>
<br>
Ud. recibe este correo por pertenecer a una lista de correo gestionada por la Universidad de Zaragoza.<br>
Puede encontrar toda la información sobre como tratamos sus datos en el siguiente enlace: <a href="https://sicuz.unizar.es/informacion-sobre-proteccion-de-datos-de-caracter-personal-en-listas" rel="noreferrer" target="_blank">https://sicuz.unizar.es/informacion-sobre-proteccion-de-datos-de-caracter-personal-en-listas</a><br>
Recuerde que si está suscrito a una lista voluntaria Ud. puede darse de baja desde la propia aplicación en el momento en que lo desee.<br>
<a href="http://listas.unizar.es" rel="noreferrer" target="_blank">http://listas.unizar.es</a><br>
----------<br>
</blockquote></div></div>