Support independent publishing: buy this book on Lulu.

Friday, April 13, 2018


                                            From la Recherche:7 characteristic of emotions

Recent studies related to emotions are refounding this area called now: affective neuroscience. The changes are enormous, namely: 1) Although there are structures that process emotions (amygdala, orbitofrontal cortex, ventral striatum), it is no longer accepted that emotions and/or cognitive activities are located in specific compartments and/or separated. There is consensus rather that the emotional processing areas are mixed with circuits that have other brain functions. 2) Functionally, the most refined logical thought needs emotion. Without this, there is no possible reasoning or decision making. Memory, reasoning, planning, making decisions, need emotion. Emotions are not separated from the cognitive processes, contrary they are evolutionarily interrelated by processes whose initial purpose had to do with saving the life of most living organisms 3) Knowledge that could regulate or autoregulate (artificially inhibiting the activity of the amygdala), certain runaway emotions of early childhood, preventing them from damaging the personality of some children forever. According to La Recherche, who publishes an extensive interview with David J. Anderson (Seymour Benzer Professor of Biology, Tianqiao and Chrissy Chen Institute for Neuroscience Leadership Chair/Howard Hughes Medical Institute) and Ralph Adolphs (Professor of Psychology, Neuroscience, and Biology/Director, Caltech Brain Imaging Center), authors of the book: The Neuroscience of Emotion, Princeton University Press, 376 p., to be published in June 2018, which recounts the saga  and recent discoveries of processes linked to emotions. We add some visions and excerpts from this interesting interview: 4) Both are decided to refound affective neuroscience, using optogenetics, fMRI, so-called biomarkers of emotions. 5) Explain evolutionarily, how emotions and cerebral cognitive processes developed. 6) According to D. J. A, the first scientific views of emotions were expressed by Charles Darwin in: The Expression of Emotions in Man and Animals (1872), who considered the nervous system as the key to interpreting emotions. 7) D.J.A. defines the emotions as internal states, which affect the body and the mind and that in the book to be published, the construction of the foundational principles of the science of emotions will be seen, proposing both researchers the adoption of a common structure of use, for psychologists and neurologists. 8) Scientific literature refers to: game, anger, fear, sadness, surprise and disgust, as primary emotions, idea that both researchers expect to be revised, because emotions existed before the words and when they were labeled inadequate common use words were used to characterize them. Instead of giving them a name they should be defined by a list of characteristics (See fig. 1, from La Recherche), that reflect the state of the subject, which helps them make critical decisions for their survival and reproduction. The idea is that emotions were born when simple reflexes were not enough to survive. Better learning, more sensitivity, and flexibility were needed. Emotions would thus be an evolutionary invention, in which complex cognitive processes (thinking and reasoning) would have been added to primitive reflexes. 9) Emotions would be part of a package of behavioral responses, facing particular situations that could be quickly deployed, a cost-benefit issue of a decision made.  Emotions would not be an obstacle to decision making, conversely, decision making would be preceded by an emotional and a cognitive way, with our brain deciding which one to use according to the circumstances. In the opinión of Antonio Damasio, when a decision is made, the consequences are evaluated in advance, associating the results with positive or negative coded values ​​in the brain, for future corporal states. We make decisions to feel better. 10) Concepts of application to the neuro-economy that has developed computational models of decision-making taking into account the emotions and also to the consolidation of memory, since it tends to better remember emotionally stronger events.
Recientes y crecientes estudios relacionados con las emociones están refundando esta área denominada ahora: neurociencia afectiva. Los cambios son enormes, a saber: 1) Si bien existen estructuras que procesan las emociones (amígdala, corteza orbitofrontal, cuerpo estriado ventral), ya no se acepta que las emociones y/o las actividades cognitivas, esten localizadas en compartimientos específicos y/o separados. Hay consenso mas bien en que las áreas procesadoras de las emociones están mezcladas con circuitos que tienen otras funciones cerebrales. 2) Que, funcionalmente el pensamiento lógico mas refinado necesita de la emoción. Sin esta, no hay razonamiento posible, ni toma de decisiones. La memoria, el razonamiento, la planificacion, la toma de decisiones, necesitan de la emoción. Las emociones no están separadas de los procesos cognitivos, contrariamente estan evolutivamente interrelacionadas mediante procesos cuya finalidad inicial tuvo que ver con salvar la vida a la mayoría de organismos vivos 3) Conocimientos que podrían   regular o autoregular (inhibiendo artificialmente la actividad de la amígdala), ciertas emociones desbocadas de la infancia temprana, evitando que estas dañen para siempre la personalidad de algunos niños. Según La Recherche, que publica una extensa entrevista a David J. Anderson (Seymour Benzer Professor of Biology; Tianqiao and Chrissy Chen Institute for Neuroscience Leadership Chair/Howard Hughes Medical Institute) y Ralph Adolphs (Professor of Psychology, Neuroscience, and Biology/Director, Caltech Brain Imaging Center), autores del libro  : The Neuroscience of Emotion, Princeton University Press, 376 p., a ser publicado  en Junio del 2018, que relata  la saga, historia y recientes descubrimientos de procesos  ligados a  las emociones.  Agregamos algunas visiones y extractos de esta interesante entrevista: 4) Refundar la neurociencia afectiva, empleando la optogenetica, el fMRI, biomarcadores soamticos de las emociones. 5) Explicar evolutivamente, como se desarrollaron las emociones y los procesos cognitivos cerebrales.  6) Según D. J. A, las primeras visiones científicas de las emociones las expreso Charles Darwin en: The Expression of Emotions in Man and Animals (1872), quien considero al sistema nervioso como la clave para interpretar las emociones. 7) D. J. A. define las emociones como estados internos, que afectan al cuerpo y la mente y que en el libro se vera el proceso de construcción de los principios fundacionales de la ciencia de las emociones, proponiendo ambos investigadores la adopción de una estructura común de uso, para   psicologos y neurologos. 8) En la literatura cientifica se alude al juego, la furia, el miedo, la tristeza, la sorpresa y el disgusto, como emociones primarias, idea que ambos investigadores esperan sea revisada, porque las emociones existieron antes de las palabras y cuando fueron etiquetadas se emplearon   palabras de uso común inadecuadas para caracterizarlas. En lugar de darles un nombre deberían ser definidas mediante una lista de características que reflejen el estado del sujeto, que lo ayuda a tomar decisiones criticas para su supervivencia y reproduccion. La idea es que las emociones nacieron cuando los reflejos simples no eran suficientes para sobrevivir, se necesitaban mejores aprendizajes, mas sensibilidad, y flexibilidad. Las emociones serian pues un invento evolutivo, en el que procesos cognitivos complejos (pensar y razonar), se habrían añadido a los reflejos primitivos. Las emociones serian parte de un   paquete de respuestas conductuales, frente a situaciones particulares que podrían ser rápidamente   desplegadas, un tema coste-beneficio de una decisión tomada.9)Las emociones no serian un obstáculo a la toma de decisiones. Contrariamente, la toma de decisiones discurriría previamente por una via emocional y otra cognitiva, siendo nuestro cerebro quien decidiría cual usar según las circunstancias. Según Antonio Damasio, cuando una decisión es tomada, las consecuencias son elevaluadas de antemano, asociándose los resultados a valoraciones positivas o negativas codificadas en el cerebro, para estados corporales futuros. Tomamos decisiones para sentirnos mejor. 10) Conceptos de aplicación a la   neuro-economia que ha desarrollado modelos computacionales de toma de decisiones teniendo en cuenta las emociones y, tambien a la consolidación de la memoria, ya que se tiende a recordar mejor los eventos emocionalmente mas fuertes.  

Labels: , , , ,

Sunday, April 08, 2018



It’s  is spoken today about  the possibility to transfer  human brain information to a computer in order to immortalize it, so this possibility is no longer an exclusive property of sci-fi. As these hypotheses gradually begin to materialize through various experimental works, fiction  is vanishing. By gradually being   convinced of the poor design of the human body (short life, limited senses, genetic defects, standard intelligence) and the misconduct of certain human beings, which threaten to destroy the planet that shelters us, some visionaries such as: Julián Huxley (1957: Toward a new humanism), F. Nietzsche (1883-1886, Ubermensch, in: Also Sprach Zarathustra), JBS Haldane (1923: Dédalo and Ícaro the science of the future), ideas to which several transhumanists have recently joined, speak now of extending the useful life, rethink the brain’s functioning  and of transfer it entirely to computers. The transhumanists Anders Sandberg (Future of Humanity Institute, Oxford University, Éthics of brain emulations) and Nick Bostrom (Oxford, University), raised in 2008, the possibility of emulating the totality of a human brain, transferring the function of human nervous systems to softwares reassembling them ad infinitum, in computers. The researchers would scan in detail and at a certain resolution, the structure of a particular brain, building a model software with a physiology faithful to the original brain, so that, when functioning in an appropriate hardware, it would have an internal structure essentially original to the primal brain -immortalized the person- in that way. In 2012, Sebastián Seung (MIT, Princeton University), innovated the cerebral study creating maps of neural connections in the brain (conectoma). And, when few expected it, Anthony Zador (Cold Spring Harbor Laboratory), presents his MAPseq (Multiplexed Analysis of Projections by Sequencing: superdetailed and superfast aps of individual brain circuits), which will change the neuroscience and allow to detect (and: correct) schizophrenias, depressions, psychiatric disorders, etc. To do this, Zador injected genetically modified viruses carrying varieties of known RNA sequences (barcodes/information bits), to the body of a mouse. In a week, the viruses multiplied within the animal, reaching each neuron of the cerebral cortex, with different combinations of bar codes. Then,  researchers cut the brain into sections, analyzing them in a DNA sequencer, allowing barcodes to identify individual neurons and mapping in a precise and multicolored way (with fluorescent dyes), the individual connections of 50,000 neurons (identified in a week). The MAPseq technique is now very competitive, fast and very cheap.


Que   se hable hoy, de la posibilidad transferir    la información   de un cerebro humano a una computadora a fin de inmortalizarlo, ya no es predio exclusivo de la ciencia ficción. Al empezar gradualmente a materializarse estas hipótesis mediante diversos trabajos experimentales, la ficción va desvaneciéndose.  Al irse convenciendo poco a poco del mal diseño del cuerpo humano (corta vida, sentidos limitados, defectos genéticos, inteligencia standard) y de las   inconductas del mismo, que amenazan con destruir   al planeta que nos cobija, algunos visionarios como: Julián Huxley (1957: Toward a new humanism), F. Nietzsche (1883-1886. Die Ubermensch, in: Also Sprach Zarathustra), J.B.S Haldane (1923: Dedalo e Icaro la ciencia del futuro), a los que últimamente se han sumado diversos transhumanistas, se habla ahora de extender la vida útil, replantear el funcionamiento del cerebro y transferirlo íntegramente  a computadoras. Los transhumanistas Anders Sandberg (Future of Humanity Institute, Oxford University, Éthics of brain emulations) y Nick Bostrom (Oxford, University), plantearon el 2008, la posibilidad de   emular la totalidad de un cerebro humano trasfiriendo la función de sistemas nerviosos humanos a softwares reensamblándolas ad infinitum, en computadoras. Se escanearía en detalle y a cierta resolución, la estructura de un cerebro en particular, construyéndose un software modelo con una fisiología fiel al cerebro original, de modo que, al funcionar en un hardware apropiado, tendría una estructura interna esencialmente original al cerebro primigenio -inmortalizándose la persona-   de ese modo.  El 2012, Sebastián Seung (MIT, Princeton University), innovo el estudio cerebral creando mapas de conexiones neurales cerebrales (conectoma). Y, cuando pocos lo esperaban ahora    Tony Zador (Cold Spring Harbor Laboratory), nos presenta su MAPseq (Multiplexed Analysis of Projections by Sequencing: mapas superdetallados y ultraveloces de circuitos cerebrales individuales), que cambiarán la neurociencia y permitirán detectar (y: corregir) esquizofrenias, depresiones, alteraciones psiquiátricas, etc. Para ello, Zador inyecto virus genéticamente modificados portadores de variedades de secuencias conocidas de RNA (códigos de barras/bits de información), al cuerpo de un ratón. En una semana, los virus se multiplicaron dentro del animal, alcanzando a cada neurona del córtex cerebral, con distintas combinaciones de códigos de barras. Luego los investigadores   cortaron el cerebro en secciones, analizándolas en un secuenciador de DNA, permitiendo los códigos de barras la identificación de neuronas individuales y  mapeando en forma precisa y multicoloreada (con tintes fluorescentes), las conexiones individuales neuronales  de una 50 000 neuronas (identificadas en una semana). La técnica MAPseq, es hoy en día muy competitiva, veloz y muy barata.

Labels: , , , , ,

Wednesday, April 04, 2018


The second law of thermodynamics states that "the total entropy of an isolated system never decreases over time". In all spontaneous processes, nature allows the flow from  heat states to → cold, never the other way around. That is so, because heat always moves to increase entropy. Total entropy always increases. However, this seemingly unchanging Second Law,  established by physicists such as Joule, Kelvin, Carnot and others, just observing external processes (in balloons, steam engines), that  occurred on a large scale, ignoring what was happening at  level of atomic particles, issuing judgments (laws), in a holistic way. A recent experiment performed on atomic particles has shown an exception to this rule: the flow from a cold body to a hot one, violating the second law of thermodynamics, a phenomenon explained  now by quantum mechanisms, folllowing the same principles of the so called time’s arrow.  Thus, some quantum systems would have a mechanism to introduce exceptions to this seemingly inviolable rule, underlining the intimate relationship between: information-entropy-energy, as explained by the nascent science of quantum thermodynamics. The team of RobertoSerra (Federal University ABC of Sao Paulo, Brazil), aligned the spins of a C atom, one of H and 3 chlorides, with  a magnetic field causing both nuclei to join and be correlated (an inseparable whole : two-qubit quantumstate), a state with bizarre behaviors. A two-qubit system can be in 1 of 4 possible states: 00, 01, 10 and 11, its entropy being defined by the probability of being in each of these states. By comparing the entropy of unique qubits with the entropy of a correlated system, physicists have realized that it is possible to measure the amount of correlation. Experiments in this regard always start with 2 strongly correlated particles and as the experiment progresses, the particles gradually disintegrate,  the correlation weakens and the sum of the entropies decreases. If the total entropy suddenly decreases in an uncorrelated regular system, it would violate the second law. When the correlation is weak, it is possible that we are observing a reversed  entropic state,  one in which the heat of the cold state is directed to the hot state, in which  case   the cold qubit is colder and the hot one warmer, a  phenomenon explained by interrelations and negotiations between correlations and entropy. Some physicists postulate that in these cases -at least in isolated systems- the arrow of time would  follow a reverse route. Although this effect had already been predicted, it is the first time that the reversal is achieved in a physical system. In 2012, researchers from ESPCI ParisTech and CNRS in France induced water waves to retrace their original path. Some physicists would try to build a large-scale thermo-quantum machine to backward explore the origin of the universe and answer the question of why the universe started in a low entropy state. allowing entropy to increase through the history of the cosmos, following the arrow of time.


La segunda Ley de la termodinámica establece que “la entropía total de un sistema aislado nunca disminuye con el tiempo”. En todos los procesos espontáneos, la naturaleza permite el flujo de estados de calor a → fríos, nunca al revés. Es así, porque el   calor siempre se moviliza para incrementar la entropía.  La entropía total siempre aumenta, irreversiblemente. No obstante, esta aparentemente inmutable segunda Ley, fue establecida por físicos como:   Joule, Kelvin, Carnot y otros, apenas observando  procesos externos en globos, máquinas de vapor, que ocurrían a gran escala, ignorando lo que ocurría a nivel de las partículas atómicas, emitiendo juicios (leyes), holísticos. Un experimento reciente realizado en partículas atómicas ha demostrado una excepción a la regla: el flujo de un cuerpo frió hacia otro caliente, violando la segunda ley de la termodinámica, fenómeno explicado por mecanismos cuánticos, ley responsable -según algunos físicos- del flujo unidireccional del tiempo. Así, algunos sistemas cuánticos tendrían un mecanismo para introducir excepciones a esta regla aparentemente inviolable, subrayando la íntima relación entre: información-entropía-energía, según lo explica la naciente ciencia de la termodinámica cuántica. El equipo de Roberto Serra (Federal University ABC of Sao Paulo,Brazil), alineo los spins de un átomo de C, uno de H y de  3 cloruros, mediante un  campo magnético causando que ambos núcleos se unan y quedaran correlacionados (un  todo inseparable: two-qubit quantum state), un estado con   conductas bizarras.  Un sistema two-qubit puede estar en 1 de 4 estados posibles:  00, 01, 10 and 11, siendo su entropía definida por la probabilidad de estar en cada uno de estos estados. Comparando la entropía de qubits únicos con la   entropía de un sistema correlacionado, los físicos han caído en la  cuenta de que es posible medir la cantidad de correlación.  Los experimentos al respecto se inician con 2 partículas fuertemente correlacionadas y, a medida que el experimento progresa las partículas gradualmente se desunen,  la correlación se debilita y la suma de las entropías disminuye.   Si la entropía total disminuye súbitamente en un sistema regular no correlacionado, violaría la segunda ley. Cuando la correlación es débil, es posible que estemos observando un estado entrópico en reversa,  en el que el calor del estado frio es dirigido al  caliente,  condicionante de  que el    qubit frío sea más frío y el caliente, más caliente. Un fenómeno explicado por las interrelaciones y negociaciones entre las correlaciones y la entropía.  Algunos físicos postulan que al menos en sistemas aislados, la flecha del tiempo en estos casos también seguiría una ruta inversa.  Aunque este efecto ya había sido predicho, es la primera vez que la reversión se logra en un sistema físico. En el 2012, investigadores del ESPCI ParisTech and CNRS in France indujeron a ondas de agua a retrazar su vía original.  Algunos físicos intuyen construir una maquina termo-cuántica a gran escala para explorar vía retroceso  el origen  del universo y responder a  la pregunta de porque el universo se inició en un   estado de baja entropía. permitiendo que la entropía se incremente a través de la historia del cosmos, siguiendo la flecha del tiempo.

Labels: , , , ,

Monday, March 19, 2018

SPARC:new fusion reactor


Some private firms from   USA (Commonwealth Fusion Sistems/constituted  on 2017, with former researchers from MIT), Italy  (ENI) and MIT (Plasma Science and Fusion Center/ MIT), will try in the next 15 years to develop a pilot plant to generate energy through nuclear fusion (union of atomic nuclei), capable of generating immense amounts of energy, free of pollution. The plan foresees the use of high-temperature   superconductors,  capable of generating magnetic super-fields inside a new type of nuclear reactors: SPARC (small compact, robust, compact reactor),  small, cheap, easy to build and faster, able to become antiquated - before being born - to the French ITER (International Thermonuclear Experimental Reactor, started to build on 2013, with economic support from Europe [45%], USA, China, India, Japan, Korea and Russia), given their problems of construction, high cost and organizational problems. An ITER, condemned to an announced death, because it continues half-built, hoping to produce  only on 2035,  its first   overheated  plasma  in a power plant of just 500 MW and a final cost of 50 billion dollars.   The artificial nuclear fusion tries to replicate on Earth, the process that naturally occurs inside our sun, converting H atoms into Helium, at extreme temperatures. Although ITER has advanced creating magnets capable of containing the overheated plasma, it still does not overcome the problem of being able to control the reaction, given the extreme temperatures. ITER is confident that the generated and reheated energy will move turbines that will produce electricity at low cost, expecting to build more than 100,000 km of niobium superconductors, a prerequisite for the construction of supermagnets that would conduct the superheated plasma (superheated matter, turned into gas, formed by  free  (not joined as in atoms), positive  and negative subatomic particles),  away from the metal walls inside the tokamak. The joint venture MIT-CFS, to build the new reactors, has just received 50 million dollars to research, refine and transform in the following 3 years different varieties of superconductors at extreme temperatures, then in the next 10 years have ready the first reactor prototype, a 200-megawatt power plant to export electricity. Researchers at MIT and the CFS plan to avoid contacting the superheated plasma with any part of the interior of the tokamak, developing powerful superconductors and electromagnets capable of producing a more compact version of tokamak. Here,  enters to carve a new superconducting material: an steel tape, covered by a compound of: Yttrium-barium-copper oxide (YBCO), which will allow scientists to produce smaller and more powerful magnets, reducing the amount of energy necessary to start the fusion reactions. The CFS will design and build a compact experimental fusion plant: SPARC, using these magnets, with the expectation that its first commercial fusion plant will generate 100 MW of electricity, enough to supply a small city. Supermagnets are the key technology for these new fusion reactors as their magnetic fields will be 4 times more powerful than any current tokamak. The final design includes a sustainable, carbon-free, potentially inexhaustible fusion plant (200 MW of electricity), within 15 years. The SPARC, an evolution of the tokamak, has only 1/65 of   ITER’ volume, thus  drastically reducing the cost of these plants.


Algunas firmas privadas de USA (Commonwealth Fusion  Sistems/constituida el 2017, con ex investigadores del MIT), Italia (ENI) y el MIT (Plasma Science and Fusión Center/MIT), intentaran en un plazo de 15 años, desarrollar una planta piloto para generar energía mediante fusión nuclear (unión de núcleos atómicos), capaz de  generar  inmensas cantidades de energía, libres de polución. El plan prevé la utilización de  superconductores de electricidad de alta temperatura, capaces de generar supercampos magnéticos al interior de un nuevo tipo de reactores nucleares : SPARC (smallest private affordable, robust compact reactor), pequeños, baratos, fáciles de construir y más  veloces, capaces de  tornar anticuado -antes de nacer- al ITER francés (International Thermonuclear Experimental Reactor,   empezado a construir  el  2013, con  respaldo  económico de Europa [45%],  USA, China, India, Japón, Corea y Rusia),  dado sus problemas de construcción, alto costo y problemas de organización. Un ITER, condenado a una muerte anunciada, porque continua a   medio construir esperando producir recién el 2035, su primer plasma recalentado en una planta de poder de apenas 500 MW y un costo final de 50 billones de dólares.  La fusión nuclear artificial intenta replicar en la Tierra, el proceso que en forma natural ocurre al interior de nuestro sol, convirtiendo átomos de H en Helio, a temperaturas extremas.  Aunque el ITER ha avanzado creando magnetos capaces de contener el plasma recalentado, aun no supera el problema de poder controlar la reacción, dadas las temperaturas extremas. El ITER, confía en que la energía generada y recalentada moverá turbinas que producirán electricidad a bajo costo, esperando   construir más de 100,000 km de superconductores de niobio, prerrequisito para la construcción de supermagnetos que conducirían el plasma recalentado (materia supercalentada, devenida en gas, conformada por partículas subatómicas positivas y negativas libres: no unidas como en los atomos), lejos de las paredes metálicas del interior del tokamak. El joint venture MIT-CFS, para construir los nuevos reactores, acaba de recibir 50 millones de dólares   para investigar, perfeccionar y transformar en los siguientes 3 años distintas variedades de superconductores a temperaturas extremas, para luego en los siguientes 10 años tener listo el  primer prototipo de reactor,  una planta de poder de  200-megwatt para exportar electricidad.  Los investigadores del MIT y el CFS, prevén evitar el contacto del plasma recalentado con cualquier parte del interior del tokamak, desarrollando poderosos superconductores y electromagnetos capaces de elaborar una versión más compacta de tokamak. Aquí, entra a tallar un nuevo material superconductor:  una cinta de acero, cubierta por un compuesto de:  Ytrio-bario-oxido de cobre (YBCO), que permitirá a los científicos producir magnetos más pequeños y más poderosos, reduciendo la cantidad de energía necesaria para  iniciar las reacciones de  fusión.  El CFS diseñara y construirá una planta de fusión experimental compacta: SPARC, empleando estos magnetos, esperándose que su primera planta comercial de fusión genere 100 MW de electricidad, suficiente para abastecer una pequeña ciudad. Los supermagnetos son la tecnología clave para estos nuevos reactores de fusión en tanto sus campos magnéticos serán 4 veces más potentes que cualquier tokamak actual. El diseño final comprende a una planta de fusión sostenible, libre de carbón, potencialmente inexhaustible (200 MW de electricidad), dentro de 15 años. El SPARC, una evolución del tokamak, posee apenas 1/65 del volumen del ITER, reduciendo   drásticamente el costo de estas plantas.  

Labels: , , , ,

Friday, February 23, 2018


Taken from quantamagazine


Now that IBM, Intel, Google, the Chinese republic, and others invest large amounts of money in star ups and prototypes of quantum computers (CC), it is appropriate to have a futuristic vision of these, because current CC are rudimentary and confront several problems. According to the theoretical model of superstring theory, it is assumed that  particles that give shape to matter and the world are not points but rather vibrational states of more basic objects called strings. Then, a vibrational machine (CC), can be seriously affected by other vibrational states, external to it (noise), with which the processes of the CC, are affected by interference, generating erratic results.  Michel Devoret before and now Gil Kalai (Hebrew University, Jerusalem), believe that quantum computers will never work consistently and that their advantages will not be very large, because all physical systems are noisy and   that entanglements  will be corrupted by any noise from the external world. A problem that induced the Chinese scientist Jian-Wei Pan (University of Science and Technology of China USTC), to demonstrate the validity of CC, in other scenarios. Jian, who dreams of manipulating particles one by one and intertwining them at will, has managed to couple (2017) an experimental quantum satellite with a similar instrument located on the Chinese space station. Jian says that in an optical fiber the signal decreases exponentially with distance and that after 1,000 km, the absorption of light prevents the transmission of more than 1 quantum bit per century, so it is necessary to invent a quantum repeater to extend the distance of quantum communications in optical fibers. With this it will be possible to detect the state of a particle of light, before it is absorbed, to transfer it to another area and teleport it from one particle to another, being necessary for it to have quantum memories, to store the state of a photon, before transfer it. Aside from the previous thing, Jian explores the quantum communications in the space, where the absorption of the light is much smaller (80-99.99%, less than the initial signal), needing new protocols to assure the communication. Elsewhere in the world, some scientists also  follows alternate paths: Elizabeth Behrman (Wichita State University) combines quantum physics with artificial intelligence and the technology of neural networks, a combination that already surpasses several human actions: chess, big data, face recognition, language translation. Although the advances of the quantum processors are still small, the CC of 2000 qbits (D-Wave/Canada), already manipulate large  amounts of data in a single step, detecting hidden patterns. Artificial neural networks recognize patterns, with the help of neurons (basic units of computation). A neuron monitors the output of multiple different neurons, activating many neurons arranged in layers. Intermediate layers create combinations (structures, edges and geometrical shapes), while a final layer produces the output (high level image), through trial and error processes. In a classical PC these interconnections are represented by a matrix of numbers outsourced to a specialized chip: graphic processing unit. However, no classical computer makes algebraic matrices like a quantum CC does. According to Set Lloyd (MIT), the manipulation of large matrices and vectors is exponentially very fast in a CC, an advantage that allows a huge storage capacity resident in the collective properties of the qubits. 2 qubits have 4 states: 2 off, 2 on, 2 off-on, 2 on-off. Each state has a certain amplitude, which can represent a neuron. In 2008, Lloyd, Aram Harrow (MIT) and Avinatan Hassidim (Bar-Ilan University, Israel), demonstrated that by inverting the algebraic matrices, a sequence of logical operations was observed, executed by the CCs. It was then concluded that  CCs are susceptible to further improvements, including noise interference. If, as many people think, the brain works like a quantum PC, because it is not affected by noise? Perhaps, certain adaptive mechanisms made the human brains more resistant to external noise, perhaps the skull and/or the meninges cancel noise. The largest current  CC, has been manufactured in Canada with 2,000 qubits (D-Wave Systems, Vancouver), in which each qubit is a superconducting electric loop, a small electromagnet oriented up, down or superimposed. To make it work, a horizontal magnetic field is activated, which initializes the qubits in top-down superimpositions, allowing the qubits to interact with each other. As most qbits are usually misaligned, some seek to align them in the same direction, in the opposite direction or, under the influence of the horizontal field, although in the end the qbits choose the most convenient orientation. Current CC, have additional problems: ¿how to extract data outside a CC? For this, it is necessary to previously measure the quantum state of the machine, otherwise the machine may collapse. Some researchers have identified short paths to extract data from a CC. According to Lloyd, Silvano Garnerone (University of Waterloo/Canada) and Paolo Znardi (USC), for certain statistical analyzes, it is not necessary to enter or store the data when a few key values ​​may be sufficient. So far, it is understood that CC being faster can revolutionize many areas of teaching and learning. For the moment it is thought that the human brain is a CC and for Perdomo-Ortiz the CC will be able in the future to self-assemble and will be models to study human cognitive models and that while advancing along this path, the CC will be refined.


Ahora que IBM, Intel, Google, la republica China y, otros invierten grandes cantidades de dinero en star ups y prototipos de computadoras cuánticas (CC), es adecuado tener una visión futurista de estas, porque las CC, actuales son rudimentarias y confrontan varios problemas.  Según el modelo teorico de la teoría de las supercuerdas, se asume que las particulas que dan forma a la materia y al mundo -no son puntos- sino estados vibracionales de objetos mas básicos denominados cuerdas. Entonces, una maquina vibracional (CC), puede ser seriamente afectada por otros estados vibracionales, externas a ella (ruido), con lo que los procesos de las CC, son afectados por interferencias anticuerdas, generando   resultados erraticos. Ante ello, Michel Devoret antes y ahora   Gil Kalai (Hebrew University, Jerusalem), opinan que las computadoras cuánticas nunca funcionarán en forma consistente y que sus ventajas no serán muy grandes, porque todos los sistemas físicos son ruidosos y las superposiciones (entanglements), seran corrompidas por cualquier ruido del mundo externo. Un problema que indujo al científico chino Jian-Wei Pan (University of Science and Technology of China USTC), a demostrar la validez de las CC, en otros escenarios. Jian que sueña con   manipular particulas una a una y entrelazarlas a voluntad, ha logrado acoplar (2017), un satélite cuantico experimental con un instrumento similar ubicado en la estación espacial china. Jian afirma que en una fibra óptica la señal disminuye exponencialmente con la distancia y que después de 1,000 km, la absorción de la luz impide la    transmision de mas de 1 quantum bit por centuria, por lo que es necesario inventar un repetidor cuantico para extender la distancia de las comunicaciones cuánticas en las fibras opticas. Con ello será posible detectar el estado de una particula de luz, antes que sea absorbida, para transferirla a otra área y   teleportarla de una particula a otra, siendo necesario para ello disponer de memorias cuánticas, para almacenar el estado de un foton, antes de transferirlo. Aparte de lo anterior, Jian explora las comunicaciones cuánticas en el espacio, donde la absorción de la luz es mucho menor (80-99.99%, menos que la señal inicial), necesitándose nuevos protocolos para asegurar la comunicación.  En otros lugares del mundo también se   transita por caminos alternos: Elizabeth Behrman (Wichita State University), combina la física cuántica con la inteligencia artificial y la tecnología de las redes neuronales, una combinación que ya supera varias acciones humanas:  ajedrez, big data, reconocimiento de caras, traducción de idiomas.  Aunque los avances de los procesadores cuánticos aun son pequeños, las CC de 2000 qbits (D-Wave/Canada), ya manipulan grandes cantidades de datos en un solo paso, detectando patrones ocultos.   Las redes neuronales artificiales, reconocen patrones, con la ayuda de neuronas (unidades básicas de computación). Una neurona monitoriza la salida de multiples neuronas distintas, activando a muchas neuronas ordenadas en capas. Las capas intermedias crean combinaciones (estructuras, bordes y formas geometricas), mientras una capa final produce la salida (imagen de alto nivel), mediante procesos de ensayo y error.  En una PC clásica estas interconexiones son representadas por una matriz de números externalizadas a   un chip especializado: unidad de procesamiento grafico.  Empero ninguna computadora clásica, hace matrices algebraicas como lo hace un CC cuantica. Según Set Lloyd (MIT), la manipulación de grandes matrices y vectores es exponencialmente muy rapida en una CC, ventaja que permite una enorme capacidad de almacenamiento residente en las propiedades colectivas de los  qubits.  2 qubits tienen 4 estados: 2 apagados, 2 encendidos, 2 apagado-enecendido, 2 encendido-apagado. Cada estado tiene cierta   amplitud, que puede representar una neurona.    En el 2008, Lloyd, Aram Harrow (MIT) y Avinatan Hassidim (Bar-Ilan University, Israel), demostraron que al invertir las matrices algebraicas se aprecio una secuencia de operaciones logicas, ejecutadas por las CC.  Se concluyo entonces que las CC, son susceptibles a mas mejoras, incluyendo las interferencias del ruido.  ¿Si como muchos piensan el cerebro funciona al modo de una PC cuántica, porque no es afectda por el ruido? Tal vez, ciertos mecanismos adaptativos, hicieron mas resistentes a los cerebros al ruido externo, tal vez el cráneo y/o las meninges anulan el ruido.    La mas grande CC actual, ha sido fabricada en Canada contando con 2,000 qubits (D-Wave Systems, Vancouver), en el que cada qubit es un asa eléctrica superconductora, un pequeño electromagneto orientado hacia arriba, abajo o en superposicion.  Para hacerla funcionar, se activa  un campo magnético horizontal, que inicializa los qubits en  superposiciónes de  arriba-abajo, dejando que  los  qubits interactúen entre si. Como usualmente la mayoría de qbits están mal alineados, algunos buscan alinearlos en la misma dirección, en dirección opuesta o, bajo la influencia del campo horizontal, aunque al final los qbits  escogen la orientación mas conveniente.  Las CC actuales, tienen   problemas adicionales: ¿como extraer los datos fuera de una CC? Para ello, hay que medir previamente el estado cuantico de la maquina, de lo contrario la maquina puede colapsar. Algunos investigadores han identificado caminos cortos para extraer datos de una CC. Según Lloyd, Silvano Garnerone (University of Waterloo/Canada) y Paolo Znardi (USC), para ciertos análisis estadisticos, no se necesita entrar o almacenar los datos cuando unos pocos valores clave pueden ser suficientes.  Hasta aquí, se entiende que las CC siendo mas rapidas pueden revolucionar muchas áreas de la enseñanza-aprendizaje.  Por lo pronto se piensa que el cerebro humano es una CC y para    Perdomo-Ortiz las CC serán capaces en el futuro de autoensamblarse y serán modelos para estudiar los modelos cognitivos humanos y que mientras se avanza por este camino, las CC se iran perfeccionando.

Labels: , ,

Thursday, February 01, 2018



Five decades ago we witnessed the installation of a giant binary computer in Trujillo-Perú. The equipment consisted of 12 black metal boxes of 3 m high and 0.6 m wide occupying -interconnected- an area of ​​100 square meters. Why was this giant computer imported into Peru? To quickly process entrance exams for thousands of applicants to the National University of Trujillo. The chips of that time were bulky transistors. Today, that technological paraphernalia has been replaced by small computers installed in areas of 10 square meters, equipped with hundreds of chips. How did this revolution occur? Reducing and reconverting the voluminous transistors to tiny chips. A reduction in the size of the machines in exchange for better efficiency does not seem to be exclusive to the machines. The same thing seems to have happened in the brains of living beings (including humans), to whom evolutionarily it also suits smaller genomes, to be also more efficient and healthy. This is suggested by T. Ryan Gregory (University of Guelph, Canada), who studies the effects of genome size and brain complexity. To small genomes → small neurons, more neurons → more neuronal connections. According to T Ryan Gregory himself, the downsizing  of red blood cells would have increased brain complexity. However, not only the brain, but also the flowering plants (angiosperms), expressed in its abrupt origin and rapid diversification during the early Cretaceous, allowing them to compete successfully against conifers and gymnosperms. In fact, angiosperms exhibit smaller leaves with numerous stomata and more venous networks that allow them to transport the sap better, have a more efficient photosynthesis, better transpiration and greater growth. Currently, angiosperms are the dominant plants in most terrestrial ecosystems. Having smaller genomes and cells coupled with the ability to capture more CO2, suggests that genome downsizing  is a prerequisite for rapid growths in plants. Conversely, a large genome, volume and large cell size are restrictions on the number of cells capable of occupying a given space. The leaves of angiosperms with many stomata and high venous density maintain high rates of gas exchange. The total sequencing of Arabidopsis thaliana (angiosperm) has contributed much to this understanding. According to Kevin A. Simonin (San Francisco State University) and Adam B. Roddy (Yale University), A. thaliana has one of the smallest genomes (157 million base pairs). Although there are angiosperms with very large genomes, these are the only ones that have been able to reduce the size of their genomes. Simonin and Roddy,   argue in PLOS Biology, that while the first terrestrial plants evolved over 500 billion years to reach their current development, flowering plants established their predominance in just the last 100 million years (beginning in the Cretaceous), emphasizing that it is genome downsizing what counts: less DNA to generate smaller cells. In the case of human beings,  allowing the brain,  to have more neurons and more connections, conditioning more sophisticated brains.


Hace 5 décadas   presenciamos la instalación de una computadora binaria gigante en Trujillo-Perú. El equipo constaba de 12 cajas metálicas negras de 3 m de alto y 0,6 m de ancho ocupando interconectadas, un área de 100 metros cuadrados.  ¿Para qué se importó esta computadora gigante al Perú? Para procesar rápidamente los exámenes de ingreso de miles de   postulantes a la Universidad Nacional de Trujillo. Los chips de ese entonces eran transistores, voluminosos. Hoy en día, esa parafernalia tecnológica ha sido reemplazada por pequeñas computadoras instaladas en áreas de 10 metros cuadrados, dotadas de cientos de chips.   ¿Como se produjo esta revolución? Reduciendo y reconvirtiendo los voluminosos transistores a minúsculos chips.  Una reducción del tamaño de las   maquinas a cambio de mejor eficiencia, no parece ser exclusividad de las maquinas. Lo mismo parece haber sucedido en el cerebro de los seres vivos (incluyendo humanos), a quienes evolutivamente también les conviene genomas más pequeños, para ser también más eficientes y saludables. Así, lo sugiere T. Ryan Gregory (University of Guelph, Canadá), quien estudia los efectos del tamaño del genoma y la complejidad cerebral. A pequeños genomas → pequeñas neuronas, a más neuronas → más conexiones neuronales. Según el mismo T Ryan Gregory, el empequeñecimiento de los glóbulos rojos habría incrementado la complejidad cerebral. Empero, no solo el cerebro, también las plantas con flores (angiospermas), expresada en su abrupto origen y rápida diversificación durante el Cretáceo temprano, permitiéndoles competir con éxito frente a coníferas y   gimnospermas. De hecho, las angiospermas exhiben hojas más pequeñas con numerosas estomas y más redes venosas que les permiten trasportar la savia de mejor manera, tener una fotosíntesis más eficaz, mejor traspiración y mayor crecimiento. En la actualidad, las angiospermas son las plantas dominantes en la mayoría de ecosistemas terrestres. Tener genomas y células más pequeñas aunado a la facilidad para captar mayor cantidad de CO2, sugiere   que la reducción del tamaño del genoma es un prerrequisito para crecimientos rápidos en las plantas. Contrariamente, un gran tamaño del genoma, del volumen del núcleo y del tamaño celular, son   restricciones al número de células capaces de ocupar un espacio determinado. Las hojas de las angiospermas con muchísimos estomas y alta densidad venosa mantienen altas tasas de intercambio gaseoso. Ha contribuido mucho a este entendimiento la secuenciación total de Arabidopsis thaliana (angiosperma).  Según   Kevin A. Simonin (San Francisco State University) y Adam B. Roddy (Yale University), A. thaliana tiene uno de los genomas más pequeños (157 millones de pares de bases). Aunque existen angiospermas con genomas muy grandes, estas son las únicas que han sido capaces de reducir el tamaño de sus genomas.   Ambos autores sostienen en PLOS Biology, que mientras las primeras plantas terrestres evolucionaron durante 500 billones de años para alcanzar su desarrollo actual, las plantas con flores establecieron su predominancia en  apenas los últimos 100  millones de años  (empezando en el Cretáceo), enfatizando que es el tamaño y el empequeñecimiento del genoma lo que cuenta. En el caso de los humanos, menos DNA para generar células más pequeñas, permitiendo que el cerebro cuente con más neuronas y conexiones, condicionando cerebros más sofisticados.

Labels: , ,

Saturday, January 13, 2018



Until recently, it was thought that the modeling of the shape and evolution of trees had to do only with the incessant competition for sunlight, the fundamental axis of photosynthesis. Now, a group of physicists, biologists, hydraulic engineers and French geneticists, under the leadership of Bruno Moulia (Research director atINRA, Plant-Biomechanics and Plant Deveploment Biology, Clermont Auvergne/France), have added a second fundamental factor: the impact of the wind or, if you like, the joint action of both. The issue is that these  study has been done by simulating the growth and evolution of virtual trees for 200,000 years (an extension of the mental experiments of Einstein and Schrödinger). The authors of the article took into account multiple factors and 2 basic principles to understand the shape of trees. 1) a tree can not grow indefinitely without affecting the good conduction of the sap, from the roots to the leaves. 2) if a tree produces a mass of branches that are too long, it can collapse under its own weight. Moulia's group developed a virtual world where trees grow, reproduce, die in thousands of years, intercept the light, distribute the products of photosynthesis between the organs, produce seeds generating branches according to the orientations of light and wind. According to Moulia, the virtual simulation integrated meteorological data, biomechanical knowledge simulating breaks during storms. Hundreds of virtual islands bathed in sunlight were planted, light with seeds with random genetic parameters. During the simulation (MechaTree simulation software © Christophe Eloy, Central School, Marseille/IRPHE), the trees germinated, grew and developed in a dense forest, where the less genetically favored tres  disappeared (Self-thinning Law), and others reproduced and   grew  well. After thousands of hours, calculations and 200,000 years of forest life, it was observed that  surviving trees and forests followed the law of self-thinning, the correlations between the largest diameter of the tree, the sum of the diameters of the branches and the size of the trees, in which only the joint action of 2 variables: competition for sunlight and wind impact was crucial for modeling the shape of the trees.


Hasta hace poco, se pensaba que la modelación de la forma y evolución de los árboles,  tenía que ver únicamente con  la  incesante competencia por  la  luz solar,  eje fundamental de la fotosíntesis. Ahora, un grupo de físicos, biólogos, ingenieros hidráulicos   y genetistas franceses, bajo el liderazgo de Bruno Moulia (Research Director at INRA, Plant-Biomechanics and Plant Deveploment Biology, Clermont Auvergne/France), han añadido un segundo factor fundamental:el impacto del viento o si se quiere, la acción conjunta de ambos. El asunto es que el estudio lo han realizado mediante simulación del crecimiento y evolución de árboles virtuales durante 200,000 años (una extensión de los experimentos mentales de Einstein y Schrödinger). Los autores del artículo tuvieron en cuenta múltiples factores y 2 principios básicos para comprender la forma de los árboles. 1) un árbol no puede crecer indefinidamente sin afectar la buena conducción de la savia, de las raíces a las hojas.  2) si un árbol produce una masa de ramas demasiado largas, puede colapsar bajo su propio peso.  El grupo de Moulia, desarrollo   un mundo virtual donde los arboles crecen, se reproducen, mueren en miles de años, interceptan la luz, distribuyen los productos de la fotosíntesis entre los órganos, producen semillas generando ramas de acuerdo a las orientaciones de la luz y el viento. Según Moulia, la simulación virtual   integro datos meteorológicos, conocimientos biomecánicos simulando roturas durante las tormentas.  Se plantaron cientos de islas virtuales bañadas con luz solar, luz con semillas con parámetros genéticos al azar. Durante la simulación (MechaTree simulation software © Christophe Eloy, Central School, Marseille/IRPHE), los arboles germinaron, crecieron y se desarrollaron en un bosque denso, donde los arboles menos favorecidos genéticamente desaparecieron (Ley de Autoadelgazamiento), y otros se reprodujeron y crecieron más o menos bien. Después de miles de horas, cálculos y 200,000 años de vida forestal, se observó que los árboles y bosques sobrevivientes siguieron la ley de auto adelgazamiento, las correlaciones entre el diámetro mayor del árbol, la suma de los diámetros  de las ramas y el  tamaño del árbol, en las que solo la acción conjunta de  2 variables : competencia por la  luz solar e impacto del viento fue  crucial para la modelación de la forma de los árboles.   

Labels: , , , , , , ,