Google
Support independent publishing: buy this book on Lulu.

Friday, December 25, 2015

AUTONOMOUS HUMANOID ROBOTIC BRAIN



AUTONOMOUS HUMANOID ROBOTIC BRAIN.

What is the fate of  autonomous humanoid robotics? What is its  current status? For us, the answer is unique: the creation of an artificial entity, simile, equal or better than a  human being (acting or taking decisions), as determined by the circumstances. To the fulfillment of this goal concur predictable and unpredictable factors (as has happened in many previous scientific-technical creations). We analyze the  predictable part. I) What was done in robotics, is not autonomous so far; it's just the mere imitation of human body movements with  utilitarian purposes if you will. Although this is the beginning, the final perspective of autonomous humanoid robotics, is not that. Recent advances in brain science and computing: Blue Brain Project (2005, to create  a synthetic brain, mimicking mammalian brain circuits through reverse engineering, to study the architecture and principles of brain function), Human Connectome Project (2009, map all human brain neural connections in order to understand its operation and generate data to facilitate research of dyslexia, autism, Alzheimer's disease, schizophrenia), Brain Activity Map (BAM, 2013, map of human brain activity of each neuron),  have organized the autonomous humanoid robot perspectives,  to travel roads in continuous building, while  walking. To this is added several transhumanist ideas aimed at improving human cell bodies (generation of superhumans). From having little scale perspectives (perhaps to know only one kind  of life: human), we have now  multiple visions. II) The fundamental point in the construction of the brain of an autonomous humanoid robot is that the senses must emerge and run before the brain. The latter must be formed according to the demands of the senses, not vice versa. Therefore the best way to understand the functioning of a  human brain and to  create an artificial humanoid  brain, is to follow the way that paved the  human evolution. Thus, the creation of the brain of an autonomous humanoid robot should start initially providing to robotic humanoid: senses at the same time that the robot is conditioned to autonomously acquire its own energy requirements (fuel in this case), imitating somehow functions of the gastrointestinal system. Fortunately this second stage of robotics: insertion and operation of the senses is already underway. It started with the vision (Science, December, 2015: Human-level probabilistic concept Learning Through induction program), with good results. In this article, it is showed  that the application of new software models recreate the human ability to generalize concepts from a single example : handwritten characters taken from  global alphabets,  observed under Bayesian criteria. Previous learning algorithms of computers required hundreds of examples. With the new software’s, computers adcquire cognitive abilities indistinguishable from humans. If our proposal is consistent, the next step will be to incorporate similar software for other senses: smell, hearing, touch, taste... So happened in human evolution:  emerging sense forced the emergence of an orchestra director (brain). III) While multisensory incorporations would initially run by external supervisors (human), the goal of the third and final step is to put all your senses under the  orders of an artificial controller (autonomous humanoid robotic brain), to process the perceived and give them  the  corresponding channel.

CEREBRO ROBOTICO HUMANOIDE. 


Hacia dónde va la robótica autónoma  humanoide? ¿Cuál es su estado actual? Para  nosotros, la respuesta es única: la creación de un ente   artificial, símil, igual o superior a los humanos  (actuando y tomado decisiones), según lo determinen  las circunstancias.  Al cumplimiento de esta  meta  concurren  factores predecibles y no predecibles (como ha sucedido en   muchas  creaciones científico-técnicas anteriores). Analizaremos, la  parte predecible. I) Lo  realizado en robótica hasta hoy, no es autónoma; es solo la mera imitación de  movimientos corporales humanos con fines utilitarios –comerciales- si se quiere. Aunque esta es la parte primigenia,  la perspectiva final de la robótica autónoma humanoide, no es esa. Los últimos avances en ciencia y computación cerebral: Blue Brain Project  (2005, creación de  un cerebro sintético, imitando circuitos cerebrales de mamíferos  mediante  ingeniería reversa a fin de  estudiar la arquitectura  y  principios del funcionamiento cerebral),  Human Connectome Project (2009, mapa  de todas las conexiones neuronales  cerebrales humanas a fin de  comprender  su  funcionamiento y generar  datos que faciliten la investigación de la dislexia,  autismo,  enfermedad de Alzheimer,  esquizofrenia),  Brain Activity Map (BAM, 2013,  mapa de la actividad de cada neurona cerebral humana), han  cimentado y organizado la robótica autónoma  humanoide al recorrer   caminos que seguirán construyéndose, al andar.  A lo anterior se  suma la fuerza de las  ideas de los transhumanistas tendientes a perfeccionar los somas humanos (generación de superhumanos). De tener   pocas perspectivas a escala  (quizás por conocer una sola forma de vida: la humana), se ha pasado a disponer de  múltiples   visiones.  II) El punto fundamental  en la construcción del cerebro de  un robot autónomo humanoide  es que los sentidos deben emerger y funcionar antes que el cerebro. Este último  debe ser formado de acuerdo a las exigencias de los sentidos,  no al revés. Por tanto el mejor método para comprender el funcionamiento un cerebro humano y crear de paso  un cerebro símil artificial,  es seguir el camino que trazo la evolución humana. Así,  la creación del cerebro de  un robot autónomo humanoide debe  empezar dotando inicialmente de   sentidos al humanoide robótico a la par que se le acondiciona para que adquiera  autónomamente sus propios  requerimientos energéticos (fuel en este caso),  imitando  de algún modo, las funciones del   sistema gastrointestinal. Por fortuna esta segunda etapa de la robótica: inserción y funcionamiento de los sentidos  ya  está en curso.  Se ha empezado con la visión (Science,December, 2015: Human-level concept learningthrough probabilistic program induction),con buenos resultados. En este artículo, se demuestra  que la aplicación de nuevos modelos de softwares recrean la habilidad humana de generalizar conceptos a partir de un solo ejemplo : caracteres escritos a mano de alfabetos mundiales observados bajo criterios bayesianos.   Los algoritmos previos de aprendizaje de las computadoras requerían centenares de ejemplos. Con los nuevos softwares, las computadoras logran equivalentes indistinguibles del de los   humanos.  Si nuestra propuesta es coherente,   el siguiente paso será incorporar mediante softwares similares los sentidos restantes: olfato,  audición,  tacto,  gusto...  Así ocurrió en la evolución humana: : los sentidos emergentes forzaron  la emergencia de un director de orquesta (cerebro).  III) Aunque las incorporaciones multisensoriales  serían dirigidas inicialmente por  supervisores   externos (humanos),  la meta del tercer y último paso  será  poner todos los sentidos bajo las órdenes  de un controlador artificial (cerebro robótico autónomo humanoide), para  procesar lo percibido  y darle el cauce correspondiente.  

Labels: , ,

Sunday, December 13, 2015

STELLARATORS




TOKAMAKS and  STELLARATORS

A relatively easy nuclear fission of heavy nuclei (U, Pt), allowed the creation of nuclear power plants and atomic bombs, with certain costs: emitted radiation and waste disposal that caused some serious accidents. Alternatively, after 1950 the first Russians tokamaks, intended to release energy by nuclear fusion of two or more light nuclei (H, He), in toroidal chambers where nuclear collisions at high speeds created a new  nuclei releasing large amounts of energy as photons. A type of energy for peaceful purposes, in which 1 g of matter  generate  energy equivalent to 8 tons of fuel, that produce no accidents, is   clean, safe (does not use U) and because the fuel is not inside the machine…it is just  injected. If the machine stops itself or the electrical power fails, the system automatically cools... nothing happens. An improved power reactor  derived from primitive  tokamaks using the nuclei fusion of H and He, is the : stellarator Wendelstein 7-X(W7-X), built by a branch of the Max-Planck-Institut für Plasmaphysik (IPP), which began 20 years ago and was put into operation on 10 December 2015. The W7-X, comprises a modified toroidal chamber designed to produce clean and unlimited energy. Main differences of WX-7 with  tokamaks are: a- No U or Pt, are used.  therefore W7-X, does not generate radiation b-Both devices have  difficulties  to uniformly compress the H. c-While tokamaks  maintain  the plasma generated by a maximum of 7 minutes, the W7-X,  kept active plasma for 30 or more minutes. d-Tokamaks have  difficulties to start its functioning, having not yet reached the point of balance between the energy of acceleration necessary to confine the plasma and fusion for  some particles, similar problems that  ITER,  try to solve. For nuclei fusion  takes place into the W7-X, it is necessary to maintain temperatures of over 100 million degrees Celsius and enormous forces. Such temperature separates electrons of atoms, generating a plasma comprising electrons and ions permitting them to travel faster, preventing repulsion of each other, allowing fusion. To keep  gases confined, it is used  a series of magnets. An electrical circuit around the toroid generates a strong magnetic field that keeps the plasma away from the walls. To prevent particles from escaping by the ends, the pipes are bent, in such a way that shaping torus or doghnuts, created endless ways. Many problems of  W7-X, have been solved  adding bending or twists to the main pipe, so that  particles travel easily through  ups and downs of magnetic fields. Optimizing a W7-X, means to endow the magnetic field with  the best shape in order to confine the plasma, more efficiently. All W7-X devices, are controlled by computers and lasers. Large temperatures are controlled externally by a cooling system close to absolute zero, which prevents leakage of particles. The W7-X, also has 250 ports for supplying and removing fuel, to heat the plasma and to make diagnostics and real tests. Actually, many researchers try to  determine  the energy confinement time and the frequency at which the plasma loses its energy. Fusion experiments with H isotopes will start on 2016. Although the current diameter of the W7-X is 16 m, all foresee  a reduction (~ 8 m) in the near future.

TOKAMAKS  y  STELLARATORS


La fácil fisión nuclear de núcleos pesados (U, Pt),  permitió la  creación de  bombas atómicas y  centrales nucleares, con ciertos costos: radiación emitida y  eliminación de  deshechos,  causantes de ciertos   accidentes serios. Alternativamente,  a  partir de  1950 se crearon los primeros  tokamaks rusos, destinados a liberar  energía por  la fusión nuclear de 2 o más núcleos ligeros (H, He), en cámaras  toroidales  donde la colisión nuclear  a altas velocidades generaba  un nuevo núcleo liberando  grandes cantidades de  energía en forma de fotones. Un tipo de energía destinado a fines  pacíficos,  en la que  1 g de materia proporción  el  equivalente energético de   8 toneladas de petróleo,  sin accidentes,  limpia, segura (no  emplea U) y porque el combustible no está dentro de la maquina…simplemente se  inyecta. Si la  maquina se detiene de por sí o, deja de funcionar la  corriente eléctrica,  el sistema se enfría automáticamente…no  pasa nada.  Una versión mejorada de  generación de  energía derivada de  primigenios tokamaks,  empleando la fusión de núcleos de He e H, es el reactor nuclear: Wendelstein 7-X stellarator (W7-X), construido por una rama del Max-Planck-Institut für Plasmaphysik (IPP), iniciado  hace 20 años y puesto en funcionamiento el  10 de diciembre del 2015. El W7-X, comprende  una  cámara toroidal  modificada  destinada a producir energía limpia e ilimitada. Las principales diferencias del WX-7 respecto a los tokamaks son :a-No emplea U ni Pt, por lo tanto no genera radiación b- Ambos tienen dificultades para  comprimir uniformemente el H. c-Mientras los tokamaks mantienen el plasma generado por un máximo de 7 minutos,  los W7-X,  lo mantienen por 30 y más minutos. d-Existen dificultades para iniciar un tokamak, no habiéndose  alcanzado aún, el punto de equilibrio entre la energía de  aceleración, la necesaria para confinar el plasma y la  obtenida con la fusión de algunas partículas, problemas similares a los que el mismo  ITER intenta  resolver. Para que la fusión de los núcleos se produzca, al   interior del W7-X,  es necesario mantener temperaturas de más de 100 millones de grados Celsius  y fuerzas enormes. Tal temperatura  separa electrones de  átomos, generando un   plasma compuesto por electrones e iones permitiendo que estos últimos  viajen más rápido,  evitando la repulsión entre sí,  permitiendo  la   fusión. Para mantener contenido al gas,  hay que emplear  una serie de magnetos. Un  circuito de corriente eléctrica alrededor del toroide  genera  un fuerte  campo magnético  que mantiene al plasma lejos de las paredes. Para evitar que las partículas escapen por los extremos,  los tubos son doblados, en forma de  doghnuts o  torus, creando  vías interminables.  Muchos problemas de los W7-X, han sido  resueltos añadiendo dobleces al tubo principal, de modo que las partículas viajen sin dificultad por los altibajos de los  campos magnéticos. Optimizar un W7-X, consiste en, dotar  al campo magnético de las formas más adecuadas para confinar al plasma del modo más eficiente.  Todos los dispositivos del W7-X, están controlados por ordenadores y láseres.  Las grandes temperaturas se controlan  exteriormente por un sistema de enfriamiento cercano al cero absoluto, que imposibilita las filtraciones de partículas. Posee además   250 puertos para suministrar y remover el combustible,  calentar el plasma y hacer diagnósticos y test reales. Se trabaja bastante en determinar el tiempo de confinamiento energético y la frecuencia a la cual el plasma pierde va perdiendo su energía. Los experimentos de  fusión de isotopos de  H empezaran el 2016.  Aunque el diámetro  actual del W7-X es  16 m, todo sugiere una reducción (~ 8 m) del mismo en el futuro cercano. 

Labels: , , ,

Thursday, December 10, 2015

DEATH OF MOBILES



MOBIL: CHRONICLE OF A FORETOLD DEATH.
Most scientists agree that in the next 30 years, 3 areas of knowledge will undergo deep transformations: telecommunications, biology (DNA editing,  stem cells) and nanotechnology. We'll talk today of distance communication (telecommunications), area in which the replacement of mobiles (cell phones) is expected, by more human communication devices or mechanisms. Interesting in this aspect, is the point of view of  Nuria Oliver, Scientific Director ofTelefonica and PhD in Computer Science from the MIT. Nuria says that the Mobil restrict many human emotions positioning these device as  a modern communication tool, but at the same time as obsolete because: a) human communication relies heavily on nonverbal aspects (up to 80% of communication: tone voice, emphasis, gestures, facial expressions, body position), while current mobil technology is limited to monosensorial aspects (insipid voice) limiting distance communication which should be more customized, complex and multi-sensory. b) Nuria adds that technological advances (interfaces brain-computer), induced by insertion of intracerebral chips will promote mind-mind communication, extinguishing or minimizing the importance of mobiles. Brain-computer interaction, will permit to transmit direct messages to distance using only the thought. Suffice just want something to be transmitted to another person with appropriate brain receptors. c) Otherwise the small screen, looking down, computing limited and complexities to enter information, are the announcement of the imminent death of current mobiles. Urge to see the speaker in natural, 3D format size  or at least  information displayed on our clothes on our bodies in our cars, in the same environment in which we operate.
MOBILES: CRONICA DE UNA MUERTE ANUNCIADA.
La mayoría de científicos concuerda  que en los próximos 30 años, 3 áreas del conocimiento sufrirán profundas trasformaciones: telecomunicaciones, biología (edición del DNA y  células madre)  y nanotecnología. Hablaremos hoy  de la comunicación a distancia (telecomunicaciones), área en la que se prevé   la sustitución de los mobiles (celulares), actuales por  dispositivos o mecanismos  más  humanos de comunicación. Interesa en este  aspecto, la sensata  opinión  de Nuria Oliver, Directora científica de Telefónica y doctora en Ciencias de la Computación por el MIT. Nuria opina que el   mobil, al restringir muchas emociones humanas la posiciona como una herramienta de comunicación moderna,  pero al mismo tiempo obsoleta,  porque : a) la comunicación humana reposa en gran medida  en aspectos no verbales (hasta 80% de la comunicación: tono de voz,  énfasis,  gestos, expresiones faciales,  posición corporal), estando la tecnología de los mobiles actuales, limitada a aspectos monosensoriales (voz insípida),    limitándo la  comunicación a distancia que debería ser más  personalizada, compleja y  multisensorial. b)  Nuria agrega que los avances tecnológicos (interfaces cerebro-pensamiento), inducidas por  la inserción de  chips intracerebrales promoverán  más adelante comunicaciones   mente-mente, extinguiendo o minimizando la importancia de los mobiles. La interacción cerebro-ordenadores, asociada a estimulación directa del cerebro permitiría  transmitir mensajes a distancia y  comunicaciones directas con el pensamiento. Bastaria solo desear que algo sea trasmitido a otra persona  con receptores cerebrales apropiados.    c) Por lo demás la   pequeña pantalla, el  mirar hacia abajo, la  capacidad de computación y el modo de  introducir la información son la crónica anunciada de la muerte próxima de los mobiles actuales. Urge ver  al interlocutor en tamaño natural, 3D o por lo menos  la  información aparezca en nuestra ropa en nuestros cuerpos  en nuestros coches,  en el entorno mismo, en el que nos movemos. 

Labels: , ,

Sunday, November 29, 2015

HUMAN GENOME




HUMAN GENOME: AN  INFORMATION REPOSITORY

Now that we have completed  templates of the human genome and are sure that their 4 basic points: A-T-C-G combined in a thousand and one ways, the manner of Morse code (dots and lines) or classical computing (1 and 0), it is logical that the entire genome is as  Christopher Adami   (Michigan State University) sustains:  a repository of information of the world,  stored in small bits,   with structural features shaped by evolution, urged by needs of living beings who carry them, aimed  to  meet their  needs. According to information theory, the genome would be an encyclopedia of the world containing information to survive through evolution. As well as proved by  natural mutations and multiple current experiments, the repository can be artificially modified at will causing predictable creatures, but not necessarily adapted to the same environment they come from. Adami also tries to answer the question : how life was formed ?. Did it originate by chance ?. Adami said that although this possibility is almost zero (to spontaneously generate 100 bits of information in  our solar system is zero), there are important mat  reflections to this respect:  first we would have to know the frequency distribution of the letters (nucleotides) to form a self-replicating bit (random chance on earth: 1 in 10 billion). Adami argues that the frequency of the letters does not occur with equal frequency (depends on temperature, pressure, acidity), also  different niches exist on earth with different probabilities of distribution that would favor the spontaneous emergence of correct bits. Such niches could have been underwater volcanic vents, initial suppliers of the energy needed for the formation of genes and metabolism of  emerging life. Build certain types of molecules and create others help obviate the limitations of chance. According to  Adami, we must stop thinking in life only from the chemical point of view, it  must be done in terms of information (ability to make predictions better than random chance).  Having been established that building life  by   chance is  mathematically almost nil, allows the existence of alternatives: life could have come from outer space, having been designed by some sort of  supraterrestrial intelligence.

GENOMA REPOSITORIO DE INFORMACION

Ahora que  tenemos plantillas completas del genoma humano y conocemos  que sus  4  letras básicas:  A-T-C-G combinadas de mil y un maneras, al modo  del alfabeto morse (punto y raya) o de la  computación clásica (1 y 0), es lógico pensar que la totalidad del genoma sea   como lo sustenta  Christopher Adami (Michigan State University),   un repositorio  de información almacenado en pequeños bits, del mundo que nos rodea con características  estructurales  moldeadas por la evolución, urgidas por necesidades de los seres vivos que las portan,  destinadas a resolver  sus  necesidades. Según la teoría de la información, el genoma sería una  enciclopedia del mundo que nos rodea conteniendo información para sobrevivir  mediante la evolución. Siendo así y como lo prueban las mutaciones naturales y múltiples experimentos actuales, el repositorio  puede  ser modificado artificialmente a voluntad  originando seres  predecibles, aunque no necesariamente adaptados al mismo entorno  del que proceden.  Adami intenta responder también la pregunta ¿Cómo se formó la vida?. ¿Se originó por azar?.  Adami dice  que aunque esta posibilidad es casi nula (generar espontáneamente 100 bits de información con sentido en nuestro sistema solar es cero),  hay reflexiones matemáticas importantes al respecto: primero habría que conocer la distribución de las frecuencias de las letras (nucleótidos),  para formar un bit  autoreplicante (posibilidad al azar en la tierra:1 en 10 billones).  Adami arguye que la  frecuencia de las letras  no ocurre  con igual frecuencia (depende de la temperatura, presión, acidez), además de existir  diferentes nichos   en la tierra  con  diferentes probabilidades de distribución que favorecerían la emergencia espontanea de bits correctos. Tales nichos podrían haber  sido  los  respiraderos volcánicos submarinos, surtidores iniciales de la  energía necesaria para la formación de genes y  metabolismo de la vida emergente. Construir cierto   tipo de moléculas y crear   otras contribuiría  obviar las limitaciones del azar. Según Adami, hay  que  dejar de pensar en  la vida solo desde el punto de vista químico, hay que hacerlo  en términos de información (habilidad para hacer predicciones con mejores posibilidades que  el azar). El que  las  chances de construcción de la vida  al azar   sean  matemáticamente casi nulas,  permite la existencia de alternativas : la vida podría haber provenido  del espacio exterior, habiendo sido  diseñada por  algún tipo de inteligencia  supraterrestre. 


Labels: , , ,

Friday, October 30, 2015

ENTANGLEMENT, AGAIN


ENTANGLEMENT

The experiment conducted by Ronald Hanson (Kavli Institute of Nanoscience/Delft University-Technology), wherein two electrons contained in diamonds, separated by a distance of 1.3 km shared instantaneous information confirms quantum phenomena previously demonstrated. Each diamond had a small space to accommodate a single electron with magnetic properties (spin). Microwave and laser pulses measured crosslinking energy and spin of electrons, with detectors located on opposite sides of the campus. The success of the experiment,  announce for 2016 : light measurements captured at different places in our Galaxy. So far, the experiment overrides the principle of locality of classical physics which states that each particle is influenced only by its immediate surrounding environment. The experiment provides for the creation of quantum internet (interlaced chains of particles, around the earth) and reliable encrypted messages. For us, the quantum entanglement, defined as simultaneous behavior involvement of objects separated by great distances, suggests the existence of individual particles with defined states, forming systems with a unique wave function, established into a universe 3D (three-dimensional) closed or with doors ajar, closely interrelated, in which the past, present and future would be able to exist at the same time or be carried back or forward. Under this umbrella, to develop instant communication among considerable distances (ends of the visible universe), would be possible. A phenomenon that speaks of a butterfly effect, so, what happens somewhere in this universe 3D would instantly affect the near or distant related point, inducing instantaneous and constant readjustments (fine tuning: fundamental physical constants: gravity electromagnetism. etc, would occupy a very narrow range, allowing the establishment and development of matter, astronomical structures and biodiversity), in a 3D universe. A seemingly closed universe that could have entry doors to other realities (other dimensions), through tunnels currently being studied (black holes, bigbangs, big crunches, wormholes).

ENTRELAZAMIENTO  CUANTICO

El experimento realizado por  Ronald Hanson (Kavli Institute of Nanoscience/Delft University of Technology), en el que  2 electrones contenidos  en  diamantes, separados por una distancia de   1.3 km compartieron  información instantánea entre sí, confirma fenómenos cuánticos  demostrados previamente.   Cada diamante disponía de un pequeño espacio para albergar  un solo electrón con propiedades magnéticas (spin). Pulsos de microondas y energía laser midieron  el entrecruzamiento  y  el spin de los electrones,  con detectores ubicados en lados opuestos del campus. El éxito del experimento augura para el  2016 mediciones de luz capturada en diferentes lugares de nuestra galaxia. De momento, el experimento anula el principio de localidad de la física clásica que establece que cada partícula es influenciada solo por su  medioambiente circundante inmediato. El  experimento prevé la creación del   internet cuántico (cadenas de partículas entrelazadas alrededor de la Tierra) y mensajes encriptados confiables. Para nosotros, el entrelazamiento cuántico (entanglement), definido como  afectación simultanea de la conducta de   objetos separados por grandes distancias, sugiere la existencia de partículas individuales en estados definidos conformando  sistemas con  función de onda única, al interior  de un universo 3D (tridimensional),   cerrado o, con puertas por entreabrir, íntimamente  interrelacionado,  en el que el pasado, el presente y el futuro tendrian la posibilidad de existir  al mismo tiempo o ser  retrotraídos: hacia atrás o hacia adelante. Al amparo de este paraguas, desarrollar entrelazamientos cuánticos instantáneos  a distancias considerables (extremos del universo visible), serian posibles. Un  fenómeno que  habla de un efecto mariposa en el que lo que suceda en algún lugar de este universo 3D  afectaría instantáneamente  un  punto cercano o lejano relacionado, induciendo constantes e instantáneas readecuaciones del universo 3D (fine tuning : constantes físicas fundamentales :gravedad. electromagnetismo, etc, ocuparian  un rango muy estrecho, permitiendo el establecimiento y desarrollo de la materia,  estructuras astronómicas y  diversidad biológica). Un universo aparentemente cerrado que podría tener  puertas de ingreso a otras realidades (otras dimensiones), a través de túneles actualmente en estudio  (agujeros negros, bigbangs, big crunchs, agujeros de gusano).



Labels: , , , , ,

Sunday, October 11, 2015

CHEMISTRY NOBEL PRIZE:2015




VIDEO: Interview about the 2015 Nobel Prize in Chemistry (9 minutes)


NOBEL PRIZE OF CHEMISTRY: 2015

Our techno-scientific assessment of 2015 Nobel Prizes, leads us to place them in the following order: a) First place: Chemistry, by the number of scientists engaged since 1940, careful observation of certain phenomena (quasi spontaneous anomalous DNA repair by natural light), excellent  handling of scientific principles and  result implications: excision of abnormal DNA segments with the potential to cure degenerative diseases (induced by hydrolysis, oxidation and reactive metabolites generated in physiological processes), exposure to radiation and to genotoxic chemicals that damage DNA, acquired genetic abnormalities and cancers, with the addition of prolonging human life. By the way, the millions of cell divisions over a human life are subject to errors, which begin to be noticed thank to the remarkable work of these researchers. b) Second Place: Physics, by expanding knowledge about neutrinos, demonstrating the existence of mass and conversion of them in other types of neutrinos according to  the circumstances, urging theoretical changes in the standard model of elementary particles and c) Third Place: Medicine, for the manufacture of new and effective antiparasitic drugs, where a little more than techno-science was the  tenacity, sweat and great spirit of the winners.  We now analyze the Nobel Prizein Chemistry:2015,  awarded to: I) Tomas Lindahl, who  demonstrated that  DNA is a chemically unstable (spontaneous generation of uracil by deamination of cytosine), molecule subject to potential decay, even in normal conditions (hydrolytic deamination, oxidation, non-enzymatic methylation), and by  identifying a new group of enzymes (glycosylases), that repair  -by excision- the abnormal DNA. Lindahl, identified the first repair enzyme: uracil DNA glycosylase from E.coli (UNG) and then another: 3-methyladenine DNA, specific for the DNA, not acting on deoximononucleotidos or any other form of RNA.  Lindahl is credited for completely recreated the  BER (Base excision repair) phenomenon  with enzymes purified from E. coli and human cells, starting the process with a DNA glycosylase, which after recognizing the DNA removed hydrolytically the bond: -deoxyribose glycosyl- from  damaged nucleotide. DNA glycosylase then binds to DNA and the abnormal nucleotide is removed. II) To Paul Modrich, by providing an adequate biochemical understanding of wrong genetic matches (mismatch repair) produced during replication, recombination and transcription of normal DNA in bacteria and eukaryotic cells. Modrich showed that DNA methylation specifically eliminated a wrong matched string (mismatch), of DNA of the bacterium E. coli. He also demonstrated that reparative activity depended on ATP stores and methylation state of heteroduplex (hybrids of DNA strands of different origins) and those mutations in the genes: Muth mutL, mutS and uvrD, prevented a  suitable mismatch repair in E. coli extracts free of cells. In 1989 he demonstrated in an in vitro system that DNA polymerase III, exonuclease I and DNA ligase were necessary for the repair of a mismatch and in 2004, managed to repair abnormal DNA using only purified human factors. We now know that defects in these pathways cause certain forms of colon cancer. And, to: III) Aziz Sancar, a chemistry-biochemistry genius, who discovered enzymatic DNA repair mechanisms in bacteria and eukaryotic cells and explain the molecular mechanisms of photoreactivation (natural light repair of abnormal DNA). Although in 1963, Richard Setlow had shown that the generation of thymine dimers (induced by UV radiation), inhibit DNA synthesis, only in 1978, Sancar got to clone the gene for E. coli photolyase, amplifying it, in vivo. He purified 3 proteins: UvrA, UvrB and UvrC using them to reconstitute the essential steps of NER pathways (nucleotide excision repair), specifically acting on damaged DNA,  showing  that these unions hydrolyze the affected  phosphodiester DNA chain. After the oligomer is cut, it is  finally removed by the UvrD helicase. Having identified in 1982, 2 chromophores in E. coli, Sancar  showed that a photolyase  could convert the energy of an absorbed photon into chemical energy, generating free, localized  radicals, eliminating anomalous thymine dimers, allowing the repair of damaged DNA. Although photoreactivation has not been conserved in mammals, there are homologous mechanisms activated by UvrD helicase counterparts.

PREMIO NOBEL DE QUIMICA: 2015.

Nuestra  valoración tecno-científica  de los Premios Nobel 2015, nos induce  a ubicarlos  en el  siguiente orden :a)  Primer lugar: Química,  por el número de científicos comprometidos  desde 1940,  observación meticulosa de ciertos  fenómenos (reparación cuasi espontanea del DNA anómalo por medio de la luz natural),  impecable manejo de los  principios científicos y por la  implicancia  de los resultados  :  excision de segmentos anómalos del  DNA con posibilidades de cura de enfermedades degenerativas (inducidas por hidrólisis y oxidación y  metabolitos reactivos generados en procesos fisiológicos),  de  exposición a radiación y químicos genotoxicos que dañan el DNA, anomalías genéticas adquiridas y  canceres, con el  añadido de prolongar la vida útil humana. Por cierto,  los millones de divisiones celulares a lo largo de una vida humana están sujetas a errores, cuya frecuencia se empieza a notar con los trabajos de estos  químicos notables.  b) Segundo lugar: Física, por la ampliación de conocimientos sobre neutrinos, demostrando la existencia de masa  en ellos y  su conversión a otros tipos de neutrinos  según las circunstancias, urgiendo a cambios  teóricos  en el modelo estándar de  partículas elementales y c) En tercer lugar : Medicina, por la fabricación de  nuevos y efectivos antiparasitarios, donde un poco más  que  ciencia y tecnología se ubica el  tesón, sudor y trabajo  de los galardonados. Analizamos ahora  el Premio Nobel de Química  concedido a: I) Tomas Lindahl por demostrar   que el   DNA es una molécula químicamente inestable (generación de uracilo por  deaminacion espontanea de citosina), sujeta a  potencial desorganización, aun en   condiciones normales  (deaminación hidrolitica, oxidación, metilación no enzimática) y, por  identificar un nuevo grupo de   enzimas (glicosilasas), reparadoras  (por excision),  del  DNA anómalo.   Lindahl,  identifico la primera enzima reparadora: uracil glicosilasa del DNA de E. Coli (UNG) y después otra: 3-methyladenine DNA, especifica para el DNA, no actuando sobre los  deoximononucleotidos o cualquier otra forma de RNA. A Lindahl se le atribuye haber recreado completamente el fenómeno   BER (base excision repair),  con enzimas purificadas de  E. coli y células humanas, iniciándose  el proceso con una DNA  glicosilasa, la que tras reconocer el DNA,  elimina  hidroliticamente la unión: ­-deoxiribosa glicosil-  del nucleótido dañado. La  DNA glicosilasa se une entonces al  DNA y el nucleótido anormal es eliminado. II)Paul Modrich, por proporcionar una comprensión bioquímica adecuada de la reparación genética (mismatch repair), producida durante la replicación, recombinación y transcripción del  DNA normal, en bacterias y  células eucarioticas.  Modrich puso en evidencia que   la  metilación del DNA  eliminaba  específicamente  una cadena mal apareada (mismatch), del  DNA de la bacteria   E. coli.  Asimismo,  demostró que la actividad reparativa dependía de las reservas de  ATP y del estado de metilación de los  heteroduplex (híbridos de cadenas de DNA, de diferentes orígenes) y que  las mutaciones de los genes:  mutH, mutL, mutS y uvrD, impedían un adecuado mismatch repair   en extractos de E.Coli, libres de células.  En  1989 demostró en un sistema in vitro que la  DNA polimerasa III, la exonucleasa I y la  DNA ligasa,  eran necesarias para la reparación de un mal apareamiento y el  2004,  logro reparar DNA anómalo humano empleando solo factores purificados. Hoy se sabe que  los defectos en estas vías causan ciertas formas de cáncer al colon. Y, a: III) Aziz Sancar un genio de la química-bioquímicapor descubrir los  mecanismos enzimáticos de reparación del DNA en bacterias y  células eucariotas y, explicar los mecanismos moleculares de la  fotoreactivacion, reparadora de DNA anómalo.  Aunque en  1963, Richard Setlow había demostrado que la generación de  dímeros de timina inducidos por radiación UV, inhibían la síntesis de DNA, recién en  1978,  Sancar  logro clonar  el gene de la  E. coli fotoliasa, amplificándolo  in vivo.   Empleando 3  proteínas purificadas: UvrA, UvrB y UvrC para reconstituir los pasos esenciales  de las vías del  NER (nucleotide excision repair),   actuando específicamente sobre el DNA dañado, demostró que estas  hidrolizan 2 uniones fosfodiester de la cadena del  DNA afectado. Tras ser cortado  el oligomero, este es finalmente  eliminado por la  UvrD helicasa. Tras identificar en  1982,  2  cromoforos en  la bacteria  E. coli,  Sancar demostro  que una fotoliasa podía convertir la energía de un fotón absorbido en energía química generando radicales libres localizados,  eliminando los dímeros anómalos de  timina, permitiendo la reparación del DNA dañado. Aunque  la fotoreactivacion no ha sido conservada en mamíferos, existen mecanismos homólogos activados por la  UvrD helicasa.


Labels: , , , , ,

Saturday, October 03, 2015

PARAPLEJIC WALK AGAIN




HEAD TRANSPLANT: A SERVED DISH

The fact that a young  American  affected  by  paraplegia for 5 years, because of a traffic accident (which damaged his spinal cord),  when he was 26 years old, walked again 3, 5  meters after receiving braincommands (intracerebral electrodes pick up brain waves recorded in a electroencephalogram, sending them  wirelessly to a computer that decodes the waves as an intention to walk or stop), transmitting them to electrodes placed on both   paralyzed knees, enabling the  man to  walk again,  means 3 things: I) the spinal cord is the body segment in charge of all  processes related to walking automatically,  counting with thousands of short interconnected neurons, as argued  SergioCanavero. Such interneuronal networks operate as a relay between the supraspinal impulses and lower motor circuit, being that enough for paraplegics permitting them to walk again after an active sensory guide training that promote neuronal plasticity. These interneuronal networks would be the walking pattern generator in humans, so reconnection of these by electrical impulses has great potential. These interneuronal networks are put into action by electrically stimulation of intact spinal segments connected to damaged segments. II) In others words, the brain is not an essential part for walking. This is only the coordinator (cerebro-spinal cord) of walking function. Such coordination can be carried out by computer, programmed softwares, another brain or a command of any type properly tuned. III) To make matters easy and according to Canavero, the number of reconnected axons necessary for a paraplegic to walk again is only 10% of all descending spinal tracts. So, the first head transplant is served and as Canavero says after that, the world will never be the same.

TRASPLANTE DE CABEZA: EL PLATO ESTA SERVIDO


El que un americano  de 31 años afectado de   paraplejia durante 5 años a causa de un accidente de tránsito (que daño su medula espinal),  halla  caminado 3, 5 metros tras recibir  comandos cerebrales  (electrodos intracerebrales, captan  ondas cerebrales registradas en electroencefalograma enviándolas en forma inalámbrica a un computador,   que descifra las ondas como una intención para caminar o detenerse), trasmitiéndolas a electrodos colocados  en ambas  rodillas paralizadas,  permitiendo a un parapléjico caminar de nuevo,  significa 3 cosas :I) Que la medula espinal es el segmento  corporal   encargado de  los procesos relacionados con el caminar en forma automática  contando para ello con miles de neuronas cortas interconectadas entre si,  como lo sostiene  Sergio Canavero.  Tales redes  interneuronales   funcionan como un  relay entre los impulsos supraespinales y el circuito motor inferior, siendo   suficientes para que parapléjicos vuelvan a caminar tras un  entrenamiento activo con guías sensoriales promotoras de  plasticidad neuronal. Estas redes interneuronales serian  el patrón generador del caminar  en  humanos, por lo que la reconexion de estas, mediante   impulsos eléctricos tiene  gran potencial. Estas redes  interneuronales se ponen en acción    estimulando eléctricamente los segmentos espinales intactos conectados a  los segmentos dañados. II) Es decir,  para caminar no es imprescindible el cerebro.  Este,  es  solo  el coordinador (cerebro-medula espinal), de la función de caminar, pudiendo esta coordinación ser llevada a cabo por  una computadora,  softwares programados, otro cerebro o  un  comando de cualquier tipo adecuadamente afinado. III) Por si fuera poco y según  Canavero el número de axones reconectados necesarios para que un parapléjico pueda volver a caminar es apenas un   10%, del total  de los tractos espinales descendentes. El primer trasplante de cabeza está servido y como dice Canavero después de ello, el mundo ya no será el mismo.

Labels: , , ,

Monday, September 14, 2015

SYMBOLIC LANGUAGES

Fernando Ponce Antunez de Mayolo (65), is a Peruvian graduate physicist (1971) at  the National Engineering University (UNI, Peru), who later pursued  physics post-graduate studies at the Universities  of Maryland and Stanford, where he became one of the first to watch cinematically (using electron microscopy), arrangements, movement, disposition and occasional defects position of atoms within the crystal lattice of  solids. Later, after working several years in the research departments of US companies Hewlett-Packard and Xerox, he worked and published several papers  related to the efficient use of light energy  using diodes (light emitting devices), which electronically controlled flat screens (LCD : Liquid Crystal Display) in television, traffic lights, etc. With such a wealth of knowledge we  believed to Ponce Antunez de Mayolo, when he says that in less than 20 years any kind of smartphones will disappear, only to be replaced by organic minibrains attachments or minicomputers connected to brain cells, designed to receive and return calls and other telecommunications tasks. Today such views are not considered remote; they are rather perceived solid, especially if  one considers that current procedures of optogenetic permit recognize neurons (by fluorescence) and activate them with laser light, intervening in neuronal function of experimental animals, lacking only to apply such technology  in humans. As Ponce Antunez de Mayolo and  we think that  current languages will become obsolete (for its slowness and lack of efficiency in conveying concepts), it appears that this will be replaced by, faster and effective symbolic languages ​​using brain to brain electronic or laser technology,  conditioning perhaps in the future the replacement of  current sound language for symbolic communications. Such orderly symbolically transmitted thinking would be transmitted and interpreted by another implant. Ponce has publishedjoint works with Shuji Nakamura who won the Nobel Prize in Physics, 2014, for works related to diodes, low energy consumers and  efficient emitters of  white light.


LENGUAJES  SIMBOLICOS

Fernando Ponce Antúnez de Mayolo (65 años), es un físico peruano graduado (1971), en la  Universidad Nacional de Ingeniería (UNI, Perú), que posteriormente realizo estudios de postgrado en física en las Universidades de  Maryland y Stanford, donde llego  a ser uno de los primeros en visibilizar cinematográficamente (con  ayuda de microscopia electrónica),  los arreglos,  movimientos, disposición y  ocasionales defectos de posición de los átomos dentro de las redes cristalinas de los sólidos. Más tarde,  tras trabajar varios años en los departamentos de investigación de las compañías americanas Hewlett-Packard y Xerox,  desarrollo conocimientos relacionados con el uso eficiente de la energía lumínica empleando diodos (emisores de luz), controlables  electrónicamente en pantallas planas (LCD :Liquid Crystal Display), de la televisión, semáforos, etc. Con tal bagaje de conocimientos hay que creerle a Ponce Antúnez de Mayolo, cuando afirma que en menos de 20 años  desaparecerán los celulares,  solo para ser reemplazados por minicerebros orgánicos adjuntos o  minicomputadoras conectadas a neuronas cerebrales,  destinadas a recibir y devolver llamadas y otras labores  telecomunicativas. Hoy en día tales   visiones no son consideradas lejanas;  se perciben  más bien solidas, especialmente  si se tiene en cuenta que los actuales procedimientos   optogenéticos  permiten  reconocer neuronas (mediante fluorescencia) y activarlas con luz laser, interviniendo en el funcionamiento neuronal de animales de experimentación, faltando solo aplicarlo en  humanos. Como Ponce  al igual que nosotros piensa que el lenguaje actual devendrá en obsoleto (por su lentitud y falta de eficacia en trasmitir conceptos), todo indica que este será  reemplazado por lenguajes simbólicos, más veloces y eficaces empleando tecnología laser cerebro-cerebro, condicionando quizás en el futuro el reemplazo del  lenguaje sonoro actual por lenguajes simbólicos. Tal  pensamiento  ordenado,  trasmitido en forma simbólica sería interpretado por  otro implante. Ponce ha  publicado trabajos conjuntos con  Shuji Nakamura ganador del Premio Nobel de Fisica, 2014, por trabajos relacionados con  diodos,  consumidores de poca  energía y eficientes emisores de  luz  blanca. 

Labels: , , ,

Sunday, August 02, 2015

TEACHING-LEARNING SYSTEMS


FAST, MASS  TEACHING-LEARNING SYSTEMS
In developing countries, the construction of a proper education system at the pace of national and international needs, with articulated transit from primary to higher education (university and research) is difficult. Reforms in these countries have long existence without positive results. Undermine the success of these reforms:  tiny budgets allocated to education, lack of specific objectives and disconnection between primary and higher education. Being asked why modern models of organization of teaching and learning, fail in these countries, the weighted response are the absence of appropriate stimuli. Imports these countries to extract positive and negative lessons of education systems, forged during World Wars. A threatened country is capable of dramatic and rapid changes in teaching and learning. I) It is accepted that during the First World War the use of phosgene and chlorine gas (chemical warfare), exerted an important role in the fate of many battles, favoring countries capable of producing these kind of gases. II) In the second world war, before the danger of the development of the atomic bomb by Germany, the American state financed the accelerated construction of microwave radars and navigation systems using radio waves (Rad-Lab Project, installed in MIT) and the atomic bomb (Manhattan Project, Los Alamos-installed in New Mexico), between 1940-1945. III) To complete these 2 projects and win the war  were required physics education in large scale  (physics war). This war altered the structure of the American university system, the organization of scientific research and defense ministry relationships with higher education. IV) Missions of teaching and learning physics consisted of: a) Teaching basic physics for all staff of army, navy and American aviation in the fastest way possible. b) Although both projects were led by physicists, the intense relationship with specialists from other branches (metallurgy, chemistry, ballistics, mathematics, electrical engineering, etc., made that no group seemed to lead others. c) before varying priorities, directives of teaching and learning, also changed rapidly. The goal was to ensure the best education for students of physics, updating knowledge of acustic-optics, radio and electrical circuits. In all high-schools a daily class was focused on electricity, radio and circuits. Military personnel were urged to be instructed massively in physics in established colleagues and universities: measuring angles, lengths, air temperature, barometric pressure, relative humidity, electric current and voltage, geometrical optics with applications in the field, acoustic and music to appreciate the depth of sound and their ranges. d) Although the goal was to teach massively elementary physics, the style of educational planning was military and logistics, to the point that in certain circumstances the physicists become commodities like gasoline and sugar, in times of scarcity. e) Teaching was pragmatic and interdisciplinary. After the war many features of American teaching and learning of World War II remained, the  learning did not return to the previous status characterized by private financing,  industrial support   and low cost undergraduate tuition fees. f) The teaching model forged in the war persisted, not only in America but also in Japan and other countries, always funded by the Department of Defense governments. In conclusion, the teaching and learning during the Second World War was characterized by being pragmatic with rejection of theoretical or philosophical investigations that  conclude in nothing, fast,  massive, teamwork with effective means of communication among participants, common objectives, great pressure to achieve successful outcomes as a result of which after the war the scientific achievements (sophisticated spacecraft, enormous progress in AI, stem cells, achievements in brain physiology and others), continued. In recent years, important critics have emerged against this model: a) the scientific pragmatism can generate ambassadors of death, so it is necessary to return to the philosophy, morality and ethics b) Military must not do more contracts with the departments of Defense of countries. But, the fact is that countries with nuclear weapons have made the current geopolitics of nations.
SISTEMAS MASIVOS Y VELOCES DE ENSEÑANZA APRENDIZAJE
En países en vías de desarrollo,  la construcción de   un sistema educativo adecuado a las necesidades nacionales e internacionales,  con transito articulado desde la enseñanza primaria hasta la educación superior (universitaria e investigación), es difícil. Las reformas en estos países tienen muchos años sin resultados positivos.  Atentan contra el éxito de las reformas: los ínfimos  presupuestos asignados a educación, la falta de objetivos específicos y la desconexión entre la  enseñanza primaria y la superior. Al preguntarnos,  porque los modernos  modelos de organización  de  enseñanza-aprendizaje,  fracasan  en estos países, la respuesta más ponderada es  la ausencia de estímulos adecuados. Importa entonces a estos  países extraer  lecciones positivas y negativas de los sistemas educativos, masivos y  acelerados de enseñanza-aprendizaje, forjados durante las  guerras mundiales. Un país amenazado es capaz de  realizar en defensa  propia  cambios drásticos y  veloces en la  enseñanza-aprendizaje. I) Se acepta que durante la primera guerra mundial el empleo de los gases fosgeno y cloro (guerra química), ejerció un rol importante en la suerte de muchas batallas, favoreciendo a los países capaces de producirlos. II) En la segunda guerra mundial, ante el peligro que representaba el desarrollo de la bomba atómica por Alemania, el estado americano  financio la construcción acelerada de radares de microondas y sistemas de navegación empleando ondas de radio  (Rad-lab Project, instalado en el MIT) y la bomba atómica (Manhattan Project, instalado en los Álamos-New México), entre 1940-1945. III) Culminar los  2 proyectos y  ganar la guerra requirió formar físicos a gran escala (guerra de los físicos). Esta guerra, altero la estructura del sistema universitario americano,  la organización de la investigación científica y las relaciones  del ministerio de defensa  con la educación superior. IV) Las misiones de  enseñanza-aprendizaje de la física  consistieron en: a) Enseñar física elemental a todo el personal del ejército, armada y aviación  americana del modo más rápido posible. b) Aunque ambos proyectos fueron   dirigidos por físicos, la intensa  relación  con  especialistas de otras  ramas (metalurgia, química, balística, matemática, ingeniería eléctrica,etc.,  hizo que ningún grupo pareciese  dirigir a  los otros. c) Ante  prioridades oscilantes,   las directivas de la enseñanza-aprendizaje cambiaban rápidamente. La meta era asegurar la mejor enseñanza para los estudiantes de física, actualizándolos  en conocimientos de óptica acústica, radio y circuitos eléctricos. En todos los  high-schools se exigía una clase diaria de física focalizada en  electricidad, circuitos y radio. Se exigía al   personal militar a instruirse en forma masiva en física en collegues y universidades establecidas: medir ángulos, longitudes, temperatura del aire, presión barométrica, humedad relativa, corriente eléctrica y voltaje, óptica geométrica con aplicaciones en el campo de batalla,  acústica y música para apreciar la profundidad del sonido y sus rangos.  d) Aunque la mera era masivizar la física elemental, el estilo y planeamiento de  la enseñanza era militar y logística, al punto que en ciertas circunstancias los físicos llegaron a convertirse en   commodities como la  gasolina y el azúcar, en periodos de escasez. e) La enseñanza era pragmática e interdisciplinaria. Después de la guerra muchas características de la enseñanza-aprendizaje de la II guerra mundial americanas,  no retornaron al status anterior caracterizado por financiamientos privados, apoyo de la industrias y becas para subgraduados. f) El modelo de enseñanza forjado en la guerra continuo, no solo en América sino también en Japón y otros países,  siempre financiados por el departamento de defensa de los gobiernos.  En conclusión, la enseñanza-aprendizaje  durante la II guerra mundial se caracterizo por ser pragmática con rechazo de las  investigaciones teóricas o filosóficas que no concluían en nada,   veloz, masiva, trabajo en equipo  con  efectivos medios de comunicación entre los participantes,   objetivos comunes, gran  presión para alcanzar resultados exitosos a  resultas de lo cual después de la guerra los logros científicos continuaron (sondas espaciales sofisticadas,  enormes progresos en AI, las células madre, logros en fisiología cerebral y otros.  No obstante en los últimos años,  han emergido criticas importantes contra este modelo:  a) Que el pragmatismo científico puede generar  embajadores de la muerte y  por lo tanto es necesario regresar a la filosofía, a la moral, la ética b) Que los militares no hagan más  contratos con los  departamentos de defensa de los gobiernos. Empero,  lo  cierto es que los países con armas nucleares han formado la geopolítica actual de las naciones.

Labels: , , ,