NÚMERO 49 - AÑO 2000 © 2000-2002 ARP-Sociedad para el Avance del Pensamiento Crítico http://www.arp-sapc.org/
SUMARIO -...
10 downloads
709 Views
80KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
NÚMERO 49 - AÑO 2000 © 2000-2002 ARP-Sociedad para el Avance del Pensamiento Crítico http://www.arp-sapc.org/
SUMARIO - "EL CHALLENGER NO SE HABRÍA LANZADO SI EN LA NASA HUBIERAN SABIDO ESTADÍSTICA" Por: Unai Maraña
- EL SUELO DE MARTE Por: Agencias
- REACCIÓN EN CADENA Por: Agencias
- LA RETIRADA DE UN PRODUCTO CON MAÍZ TRANSGÉNICO REABRE EL DEBATE EN EE.UU. SOBRE LA BIOTECNOLOGÍA Por: Agencias
- JOSÉ ANTONIO MINGOLARRA, CATEDRÁTICO DE LA UPV / EHU, "EL OLVIDO ES UN ELEMENTO NECESARIO" Por: Unai Maraña
- LA MASA OSCURA PODRÍA NO SER NECESARIA Por: Víctor R. Ruiz
- EL UNIVERSO PLANO Por: Víctor R. Ruiz
- "TARDÉ DIEZ AÑOS EN VER LA IMPORTANCIA DE LA INVESTIGACIÓN POR LA QUE ME DIERON EL NOBEL" Por: Agencias
- UNA COMPAÑÍA BRITÁNICA DESARROLLA UN NUEVO SISTEMA DE ADMINISTRACIÓN DE TERAPIAS GÉNICAS Por: Agencias
"EL CHALLENGER NO SE HABRÍA LANZADO SI EN LA NASA HUBIERAN SABIDO ESTADÍSTICA" Por: Unai Maraña
Juan Antonio Cuesta aborda problemas reales mediante herramientas estadísticas. «Si en la NASA hubieran conocido una simple fórmula estadística, el Challenger no se habría lanzado», señaló el matemático Juan Antonio Cuesta, profesor de la Universidad de Cantabria, en el transcurso de su ponencia La estadística: problemas y métodos, dentro del curso Matemáticas en el mundo real, en los Cursos de Verano de la UPV. La exposición consistió en el análisis de algunos problemas reales, resueltos mediante la aplicación de
Página 1/11
sencillos métodos estadísticos. Cuesta puso de manifiesto la posibilidad de calcular probabilidades complicadas mediante simulaciones realizadas por ordenador. El matemático comenzó por un caso en el que el hotel Hilton de San Francisco fue acusado de discriminación racial a la hora de contratar trabajadores. Para estudiar las cifras de empleados contratados a lo largo de varios años, divididos en función de su raza, Cuesta había empleado en su ordenador un «generador de números aleatorios». Este mecanismo «elige números de cuatro cifras decimales entre 0 y 1, de manera que cualquier número tiene las mismas probabilidades de salir». EL ponente comparó este sistema con la posibilidad de lanzar una moneda «10.000 veces». El accidente de la nave Challenger sirvió a Cuesta como ejemplo de «a dónde lleva la ignorancia en estadística». Según el conferenciante, «si en la NASA hubieran conocido una simple fórmula estadística no se hubiera lanzado». El estadístico explicó que la estructura del cohete estaba unida por doce anillos, y que el fallo de alguno de ellos provocaría una fuga de combustible que, al contacto con los gases de combustión, haría estallar la nave, como finalmente ocurrió. Teniendo en cuenta la sospecha de que el frío afectaba a los anillos, el ponente demostró que la temperatura del día del lanzamiento, -IºC, tendría que haber hecho desistir a la NASA de realizar la operación. El matemático presentó cálculos que revelaban que el número de anillos del Challenger que se podía esperar que fallasen a menos de 0ºC era «de entre 9 y 10, sobre un total de una docena». «No hace falta saber mucho de estadística para darse cuenta», subrayó el especialista ante un gráfico sobre el caso del Challenger. Cuesta resaltó que la comisión encargada del análisis de las causas del fallo «concluyó que en todos los controles de tierra de la NASA tenía que haber un. experto en estadística». El ponente presentó otro problema de discriminación, en este caso sexual, que comprometió a la Universidad de Berkeley en 1973, antes de involucrar a los asistentes en la realización de un experimento. El estadístico solicitó a la mitad de los asistentes que arrojaran al aire 200 veces una moneda, y anotaran en una tabla el número de caras y cruces que salieran, mientras que el resto inventaba los resultados. Desgraciadamente, el experimento resultó «mas bien un fracaso».
EL SUELO DE MARTE Por: Agencias
Las concentraciones de sal en los Valles Secos de la Antártida proporcionan claves sobre la atmósfera del planeta rojo Un grupo de químicos de la Universidad de San Diego (California) ha descubierto que las altas concentraciones de sal que se encuentran en el suelo de los Valles Secos de la Antártida se deben, en gran parte, a emisiones de sulfuro biológico en los océanos que rodean al continente. En un artículo que publica esta semana la revista ‘Nature’, los científicos aseguran haber descubierto una señal química inconfundible en las muestras de suelo de esta región, que muestra un especial parecido con el de Marte: los sulfatos de las algas marinas contribuyen en gran medida a las altas concentraciones de sal en la zona.
Página 2/11
Durante décadas, los investigadores han supuesto que las altas concentraciones de sal se debían principalmente a un viejo mar que antiguamente cubrió la región, a la sal marina transportada al continente por los fuertes vientos antárticos, a sulfatos producidos biológicamente, a la humedad de las rocas o a la actividad hidrotermal. Anomalía única Los autores del presente estudio han aclarado esta cuestión, al descubrir una anomalía incomparable en las pruebas de los sulfatos que recuperaron químicamente de los suelos de esta región, únicos en la Antártida por estar a salvo del hielo y la nieve durante todo el año. El descubrimiento les ha permitido llegar a la conclusión de que los sulfatos proceden de gases de sulfuro que se han sometido a reacciones químicas en la atmósfera y que fueron transportadas a los Valles Secos. Dado que la Antártida está a miles de kilómetros de las fuentes productoras de gases sulfúricos de origen humano o debidos a la combustión de petróleo, los científicos pudieron concluir que estos sulfatos proceden de unas algas que abundan en los océanos que rodean al continente. Estas observaciones poseen, según los especialistas, importantes implicaciones en la búsqueda de evidencias de vida pasada o presente en el planeta Marte y en la comprensión de las interacciones químicas entre la atmósfera marciana y la superficie del planeta rojo. «Estudiando el suelo de los Valles Secos adquirimos una buena noción de lo que puede estar pasando en Marte. Las condiciones de los Valles Secos son lo más parecido a Marte que podemos encontrar en la Tierra, de tal forma que, si queremos entender lo que pasa en un entorno tan extremo como el del planeta rojo, esto puede ser un ejemplo», comentan los autores del estudio.
REACCIÓN EN CADENA Por: Agencias
Noticia enviada por: Luis R. Manso Versión en español por: Julio Arrieta (ARP-Traductores) Una revisión realizada durante dos años en 52 laboratorios de otras tantas escuelas públicas de Colorado (EEUU) ha encontrado que el 92% poseen elementos químicos lo suficientemente viejos e inestables como para hacer necesaria la intervención de los equipos de artificieros de la policía para su retirada. En una de estas escuelas, se encontró "Pastel Amarillo", una forma concentrada de uranio. Otra de las muestras de uranio estaba almacenada de una forma tan inapropiada que un profesor que había manipulado la botella días antes había sido contaminado. Algunas de las muestras químicas localizadas eran lo suficientemente inestables como para provocar una explosión, con la suficiente potencia como para matar a cualquiera en el edificio, simplemente con que se les hubiese dado un empujón. Cuando preguntaron sobre el asunto al Comisionado de Educación del estado Bill Moloney, éste declaró: "Éste no es un tema de mi competencia. No puedo ayudarles con esto. Se trata más bien de un asunto para el departamento de Sanidad". Pero los oficiales locales de Sanidad dicen que no están entrenados para trabajar en este tipo de revisiones. "Yo sabía que pasaba por alto cosas así porque sabía que desconocía la naturaleza de lo que veía en las inspecciones", dijo un oficial
Página 3/11
del condado después de una inspección escolar. "No tengo los conocimientos, y de ninguna manera soy químico". Algunos oficiales están ansiosos por aumentar las inspecciones mediante expertos a todas las escuelas, pero no han proyectado ninguna inspección nueva porque no hay fondos para ello. Una revisión similar se ha completado recientemente en Ohio, y ha costado 3 millones de dólares. (Denver Post) ... ¿Qué son unos pocos millones destinados a asegurar las escuelas cuando un sólo tiroteo escolar en Columbine High costó a las arcas 10 millones de dólares?
LA RETIRADA DE UN PRODUCTO CON MAÍZ TRANSGÉNICO REABRE EL DEBATE EN EE.UU. SOBRE LA BIOTECNOLOGÍA Por: Agencias
La retirada de las tortillas para tacos, que contenían una especie de maíz transgénico no autorizado por las autoridades sanitarias, ha sido considerada por los senadores demócratas como la prueba de que la normativa sobre biotecnología vigente en Estados Unidos debe ser reforzada. Mientras, los republicanos señalan que el único cambio necesario es promover la información sobre el tema. La retirada voluntaria por parte de Kraft de las tortillas afectadas ha alimentado un debate sobre la seguridad de los alimentos transgénicos justo cuando la FDA, organismo que regula alimentos y fármacos, prepara una nueva normativa destinada a reforzar la confianza de los consumidores sin incluir cambios importantes. "Lo irónico de esta polémica es el mayor grado de preocupación de parte de los consumidores por unos alimentos, que hasta ahora, el gobierno, la comunidad científica y algunas asociaciones de consumidores consideran seguros", ha señalado el senador James Jeforrds, republicano y presidente del comité de sanidad. Kfrat, una compañía filial de Phillip Morris, anunció el pasado viernes la retirada de los productos, después de confirmar la presencia de un gen StarLinK en algunos paquetes de tortillas para tacos. La compañía también hizo un llamamiento al gobierno para la aprobación de medidas más estrictas a la hora de autorizar nuevos cultivos biotecnológicos. El StarLink es una de las variedades Bt de maíz manipuladas genéticamente para repeler las pestes antes de ser utilizadas como pienso animal. Esta variedad es la única que la Agencia de Protección Medioambienteal rechazó aprobar para el consumo humano debido a que los científicos sospechan que podría producir reacciones alérgicas.
JOSÉ ANTONIO MINGOLARRA, CATEDRÁTICO DE LA UPV / EHU, "EL OLVIDO ES UN ELEMENTO NECESARIO" Por: Unai Maraña
José Antonio Mingolarra, catedrático de la facultad de Ciencias Sociales y de la Comunicación de la UPV y director del curso “La memoria y el olvido. Imaginario colectivo y cultura”, impartió ayer la conferencia titulada Memoria, olvido e historia en los Cursos de Verano de la UPV. Pregunta- ¿Qué relación existe entre la memoria, el olvido y la historia?
Página 4/11
Respuesta- La memoria individual y la colectiva son necesarias para comprender el mundo y construir la identidad, aunque la segunda, según cómo se genere, configura una memoria enfermiza que determina interpretaciones equívocas. Para curar esa patología es necesario acudir a la historia. La memoria colectiva se caracteriza porque constituye los relatos de interpretación de la vida, mientras que la historia los ordena científicamente. La historia palia el desorden de la memoria colectiva. En medio de ambas aparece el olvido, como elemento sin el cual no podríamos vivir. P- ¿El olvido histórico es necesario? R- Existe un olvido huidizo, que sólo lo puede corregir el rigor histórico, y otro activo, que corresponde a la idea de reinterpretar o reelaborar la historia para comprender una situación bipolar que puede producirse después de grandes catástrofes o acontecimientos sociales. P- ¿Las instituciones condicionan la memoria colectiva? R- Parece un poco paradójico en un momento como este plantear la recuperación del olvido para poder soportar la memoria. Pero esto no significa que el olvido lo imponga un poder establecido de manera perversa. El perdón está implicado en la relación entre memoria, olvido e historia. Hay dos tendencias de las que rehuyo. La primera de ellas, puesta de moda recientemente, afirma que nuestro pasado reciente no fue ni tan doloroso ni tan traumático. La otra es contraria, y manifiesta que nada ha cambiado, sin entender la transformación del imaginario colectivo desde un pasado autoritario hasta un presente democrático. P- ¿Qué indicadores culturales sirven de referencia para el estudio de la memoria colectiva? R- Aunque el curso es de naturaleza política, aborda la historia a partir de micro representaciones culturales para explicar la memoria colectiva. Los ejes son los conceptos, los testimonios, las representaciones espectaculares y las informaciones o estrategias persuasivas. P- ¿Esas representaciones culturales están tomadas de la cultura de masas? R- No, el curso trata la cultura desde las grandes palabras: la publicidad, política, la literatura, el cine, la fotografía y la teoría del espectáculo, que comprende el teatro y la danza. P- ¿Conocen los jóvenes la historia reciente? R- El curso nació porque los que lo impartimos, profesores de la UPV cercanos a mi departamento, constatamos la imposibilidad de desarrollar un debate académico sobre la historia reciente con nuestros alumnos, que hayan o no hayan sido testigos, adolecen de un desconocimiento casi absoluto de la misma. Viven sin la memoria del pasado reciente.
LA MASA OSCURA PODRÍA NO SER NECESARIA Por: Víctor R. Ruiz
Hasta ahora, los científicos buscan el origen del 90% de la masa faltante en el Universo. Al observar rotar las galaxias, la velocidad de las estrellas es muy grande. Contando toda la masa que se observa en la galaxia (en forma de estrellas, planetas, y nebulosas) ésta es insuficiente para retener a las estrellas... éstas deberían salir despedidas hacia el espacio, pero el hecho es que siguen rotando en torno al núcleo galáctico. ¿Dónde está ese 90% de la masa que no se ve? A día de hoy habían dos hipótesis diferentes. Por un lado, la masa oscura "fría", que apunta a que ese 90% de la masa estaría en forma de partículas exóticas. Por otro lado, la masa oscura "caliente" explica que el 90% de la materia no observada estaría escondida en forma de numerosísimos planetas y estrellas frías muy débiles. McGaugh trabajaba en la rotación de galaxias de bajo brillo superficial. Sus datos no encajaban bien dentro del modelo de la materia oscura "fría" (partículas exóticas cuya naturaleza exacta es
Página 5/11
desconocida). Sin embargo, topó con la llamada Dinámica Newtoniana Modificada (DINEMO, o MOND en inglés) que explicaba perfectamente las observaciones. DINEMO es una teoría ad hoc, es decir, una modificación realizada a las leyes de la mecánica de Newton exclusivamente para resolver el problema de la rotación de las estrellas en las galaxias. Es por ello por lo que los físicos y astrofísicos se sienten algo incómodos. Sin embargo, a decir de los "conversos", funciona muy bien. Esta modificación fue propuesta por Moti Milgrom, de la Institución Weizmann (Israel), en 1983. La modificación a la gravitación de Newton rompe uno de los pilares básicos de la Física, la equivalencia entre masa inercial y masa gravitacional en condiciones de pequeñas aceleraciones. Según se explica en AstroCosmo «DINEMO propone que la masa inercial de un cuerpo depende de la intensidad del campo al cual está sometido». Por tanto, «una estrella que está a gran distancia del centro de una galaxia está inmersa en un campo gravitacional débil, así su masa inercial es más pequeña, y cuesta menos acelerarla para mantenerla en órbita». McGaugh aplicó a la teoría de la Gran Explosión un modelo que contuviera sólo la cantidad de materia "normal" que indican los datos de DINEMO en las galaxias. Para sorpresa de todos, fue una de las pocos modelos en ajustarse bien a los datos del globo aerostático científico Boomerang. «Lo que predije fue la amplitud del segundo pico del espectro de potencia del fondo de radiación cósmico de microondas, en comparación con el primero». Sin embargo, DINEMO dista mucho de ser una teoría ampliamente aceptada. Cole Miller, colega suyo, opina que aún es muy temprano para determinar cual de las teorías es cierta. A McGaugh esto no le preocupa mucho, cree que es natural un escepticismo ante ideas tan radicales como DINEMO la primera vez que se tiene constancia de ella. «Pero para ser francos, creo que deberíamos aplicar el mismo grado de escepticismo a la materia oscura». A DINEMO, por su parte, le quedan también muchas causas teóricas pendientes. Para más información: “La Alternativa a la materia oscura exótica” (Entrevista con el astrofísico Robert H. Sanders en el Boletín de noticias del Instituto de Astrofísica de Canarias) .http://iac.es/gabinete/iacnoticias/1-99/materia.htm Boomerang (ver el artículo siguiente en EL ESCÉPTICO DIGITAL) Instituto de Astrofísica de Canarias (IAC) http://www.iac.es/ DINEMO http://www.civila.com/chile/astrocosmo/tmond.htm Nota De prensa original (en inglés)
EL UNIVERSO PLANO Por: Víctor R. Ruiz
Como todos los lectores sabrán a estas alturas, a finales del mes de abril, astrofísicos italianos y estadounidenses anunciaron los resultados del experimento Boomerang. Consistente en un globo con instrumentos a bordo, durante diez días del mes de enero de 1999, realizó el mapa más preciso del fondo de radiación de microondas (CMB) obtenido hasta el momento. Su conclusión: el universo no posee curvatura positiva o negativa, es plano.
Página 6/11
Boomerang y la Gran Explosión. Boomerang, desde la Antártida, obtuvo un mapa de una región del cielo en el espectro de microondas. Sus instrumentos obtuvieron mil millones de medidas de pequeñas variaciones en la temperatura del CMB. Julián Borrill afirma que «este es el conjunto de datos del fondo cósmico de microondas más preciso y grande hasta ahora obtenido». En realidad, no es un mapa completo de toda la bóveda celeste, porque la región estudiada posee sólo una superficie del 3% del cielo. Los primeros 300.000 años del Universo. Una de las mayores consecuciones de las famosas teorías de Einstein fue el predecir que el Universo debió formarse tras una Gran Explosión. En ese entonces, toda la energía y materia del Universo estaba concentrada en una región de pequeñas dimensiones. Al comienzo, el cosmos era opaco; los fotones no podían caminar más allá de unos cuántos milímetros sin chocar con una partícula. Mientras el diámetro del Universo crecía, la densidad disminuía. 300 000 mil años después de la gran explosión, la temperatura del Universo fue suficientemente baja como para que protones y electrones dejaran de chocar repetidamente y comenzaran a formar átomos de hidrógeno. En ese momento, los fotones quedaron libres: por fin el Universo se tornó transparente. Desde que esos fotones quedaron libres, hasta hoy en día, los cosmólogos calcularon que habrían reducido su longitud de onda hasta equivaler a la radiación de un cuerpo negro a 2,73° Kelvin (menos de 3° por encima del cero absoluto). En 1965, Arno Penzias y Robert Wilson, estaban trabajando para la compañía telefónica AT&T. Tenían a su disposición una gran antena. Durante meses, trataron de conocer el origen de un ruido. Llegaron a desmontarla en piezas y limpiarla por completo. Pero el ruido seguía ahí. Penzias y Wilson recibieron posteriormente el Nóbel por descubrir el fondo cósmico de microondas (CMB). «La cara de Dios». Pero si primitivamente todo el Universo era igual en todas partes, ¿por qué hoy en día no ocurre lo mismo y vemos que la materia se condensa en galaxias rodeadas de grandes vacíos? La confirmación a las sospechas de los cosmólogos llegó en 1991, gracias a los resultados obtenidos por el satélite COBE. Su objetivo fue el mismo que el de Boomerang, cartografiar el cielo en la zona de las microondas. Se necesitan recoger cientos de medidas para un solo punto: «Hay ruido del instrumento, fuentes superpuestas que emiten radiación en microondas, como el polvo. Y finalmente hay variaciones intrínsecas del CMB que es lo que estamos tratando de medir», apunta Borrill. Estas pequeñísimas variaciones en la radiación de fondo cósmico son la razón de la formación de estructuras: el universo no era totalmente homogéneo. Los cosmólogos se han congratulado de los resultados del experimento Boomerang porque les ha permitido concretar los valores de las variables (matemáticas) que manejan para determinar la geometría y dinámica del Universo. Una de las incógnitas que hasta ahora se mantenía era precisamente qué geometría tenía el Universo. Y eso es lo que ha dado titular a las noticias: «El Universo es plano». El secreto está en la masa. En la mecánica clásica, la que postuló Isaac Newton, la gravedad es una fuerza que sólo afecta a los
Página 7/11
cuerpos celestes. Por tanto, preguntarse qué geometría posee el Universo no tiene sentido: dos rayos de luz emitidos paralelamente no modificarán su trayectoria y seguirán paralelos por siempre. Pero Einstein introdujo el concepto de espacio-tiempo. El espacio-tiempo, como si fuese un colchón, se deforma en presencia de un cuerpo masivo. Este hecho fue confirmado gracias a un eclipse de Sol: el Sol cambiaba la posición aparente de las estrellas de fondo. A una escala mucho mayor, dependiendo de la masa total que existe en el Universo, su geometría puede ser plana, curvada negativa o curvada positivamente. La geometría, además, nos da pistas sobre el futuro del universo: si es abierto, plano o cerrado. Imaginemos que el Universo es un automóvil que no ha pasado la inspección técnica (la profesión de cosmólogo no da para mucho) y viajando por una recta a 40 kilómetros por hora, se nos para el motor y los frenos no funcionan. Si nos encontramos subiendo por una montaña, está claro que la gravedad hará que el automóvil se llegue a parar en unos instantes, regresaremos justo por donde habremos llegado (caso del Universo cerrado). Si por el contrario no subíamos, sino que bajábamos la pendiente de la montaña, nuestro automóvil seguirá viajando hasta el infinito y más allá (caso del Universo abierto, y que como no tengamos cuidado, lo mismo le pasará a nuestro cráneo). El tercer caso estaría en una recta sobre una carretera: el automóvil frenará por rozamiento y se quedará quieto (caso del Universo plano). Por tanto, en un universo abierto, el cosmos jamás llega a desacelerar lo suficiente su velocidad de expansión y crece por siempre jamás. En un universo cerrado, la masa existente es tanta que frena el acelerón primordial y se colapsa sobre sí mismo. Un estado intermedio es el del universo plano, en el que la masa que existe es justo la crítica para frenar la aceleración, pero no la suficiente para hacer colapsar el Universo. Cartomancia: El futuro mediante un mapa. La curvatura del Universo se relaciona con el futuro fácilmente: un universo curvado negativamente es a su vez cerrado y un universo curvado positivamente es un universo abierto. El experimento Boomerang obtuvo detalles lo suficientemente finos para determinar qué geometría tiene el Universo. En la imagen que acompaña estas líneas está el mapa obtenido por el Boomerang. Según el tamaño de las manchas frías y calientes, los cosmólogos puede determinar la curvatura del espacio. Si el Universo tiene geometría plana, entonces el mapa estará dominado por manchas de un tamaño de un grado (dos veces el diámetro de la luna llena). Si el Universo tiene curvatura, la imagen es distorsionada. En el caso del universo cerrado (líneas convergentes), la imagen es magnificada y las estructuras aparecerán más grandes de un grado. Si el universo es abierto, y las líneas paralelas divergen, entonces las estructuras aparecerán más pequeñas de un grado. Y, tal y como desvelábamos nada más empezar el artículo, las imágenes de Boomerang indican que el universo es plano: existe justamente la densidad crítica para que el cosmos, en el infinito, frene su expansión. Los cosmólogos, además, están de enhorabuena puesto que el modelo más aceptado de la Gran Explosión, el inflacionario, predecía precisamente que el universo debía ser plano. Para más información. «Pictures of the Early Universe», Science@ NASA
Página 8/11
http://science.nasa.gov/headlines/y2000/ast27apr_1.htm «Los tres primeros minutos del Universo», Steven Weinberg. Editorial Alianza. «Fundamentos de astronomía», Michael A. Seeds. Editorial Omega. Pagina del experimento Boomerang (inglés). http://www.physics.ucsb.edu/~boomerang/
"TARDÉ DIEZ AÑOS EN VER LA IMPORTANCIA DE LA INVESTIGACIÓN POR LA QUE ME DIERON EL NOBEL" Por: Agencias
Entrevista a Sheldon Glashow, premio Nóbel de Física. El físico estadounidense Sheldon Glashow realizó en 1960 una investigación que cambió la historia de la física. Aquella investigación sentó las bases para demostrar que dos de las cuatro fuerzas que gobiernan el Universo -el electromagnetismo y la nuclear débil- eran en realidad dos expresiones de una misma fuerza. Para que le cuadraran los cálculos, Glashow introdujo en sus ecuaciones un nuevo tipo de partículas que más tarde fueron descubiertas: los bosones. Desde entonces, los físicos tratan de probar que las otras dos fuerzas -la gravedad y la nuclear fuerte- son también aspectos de la única fuerza fundamental que, según sus deseos, debería gobernar el universo. Por aquella investigación, Glashow recibió el premio Nóbel de Física en 1979. Sin embargo, tal como reconoció el martes en Barcelona -donde ha participado en las jornadas "El segle dels quanta", coorganizadas por el Museu de la Ciència de la Fundació "la Caixa" y la sociedad España Nuevo Milenio-, "tardé diez años en darme cuenta de la importancia de la investigación". Pregunta- ¿Por qué tanto tiempo? Respuesta- Debo decir que no fui el único. En aquel momento, nadie se dio cuenta. Faltaban demasiadas piezas en el razonamiento. Por ejemplo, faltaba la idea de los quarks o el trabajo de Steven Weinberg, con quien compartí el Nóbel pero que tampoco se dio cuenta de la importancia de lo que estaba haciendo. P- ¿El gran Weinberg tampoco se dio cuenta? R- Él había escrito unos años antes un artículo que fue fundamental para unificar las fuerzas. En 1970, fui a verle al MIT con dos colegas para explicarle las ideas que teníamos sobre la unificación. No le interesó especialmente y no nos comentó nada de la relación que tenía nuestro trabajo con el artículo que él había hecho. Al parecer lo había olvidado. P- ¿Y después? R- En aquel momento, no habíamos encontrado la manera de unificar las fuerzas de un modo matemáticamente consistente. Todo encajó en 1971 cuando los holandeses Gerard t'Hooft y Martinus Veltman, a quienes han dado el último premio Nóbel, eliminaron las inconsistencias matemáticas y demostraron que la teoría tenía sentido. P- Pensando en lo accidentada que fue esta investigación, ¿usted cree que merecía el Nóbel? R- ¿Yo? Desde luego que sí. Al igual que muchos otros científicos que sin embargo no lo han ganado, ya que el número de científicos que merecen el premio es superior al número de científicos que lo ganan. P- Una persona de la academia sueca dijo en una reciente visita a Madrid que el Nóbel es bueno para la ciencia y malo para los científicos. R- No sé por qué se supone que es bueno para la ciencia. P- ¿Porque motiva a algunos investigadores, tal vez? R- Un científico no necesita el premio Nóbel para motivarse. Investiga por el placer de investigar, y si
Página 9/11
además gana el Nóbel, pues mejor. Y no creo que sea malo para él. Yo personalmente estoy muy contento de haberlo ganado. P- Pero los premios Nóbel son personajes tan solicitados que su actividad científica a menudo se resiente. R- No se resiente mientras sepas decir que no. P- ¿Es la física de partículas tan apasionante hoy, como cuando se unificó la fuerza electrodébil? R- Los 60 y los 70 fueron una época realmente apasionante y es cierto que hoy día las cosas se mueven más lentamente. Pero la física teórica sigue siendo un campo de gran interés que atrae a alumnos extraordinariamente brillantes. P- Pero el modelo estándar, que explica la historia del Universo, va camino de convertirse en el modelo final y la física de partículas parece cada día más una ciencia de confirmación y menos de descubrimiento. R- Esto no es cierto. Los astrónomos nos han convencido de que existe la materia oscura, que no está hecha de ninguna de las formas de materia incluidas en las versiones más simples del modelo estándar. De modo que es un modelo incompleto que aún debe desarrollarse. Y además, el modelo estándar no puede ser la última palabra porque hay muchas preguntas que no puede abordar. Por ejemplo, ¿por qué hay tres familias fundamentales de partículas? ¿Por qué la estructura matemática del Universo es la que es? P- ¿Tienen respuesta todas las preguntas? R- No. Pero piense en lo que hemos aprendido en el último siglo... Y ahora piense en lo que aprenderemos en los próximos cien siglos. P- Me resulta inconcebible. R- Es inconcebible para cualquier persona.
UNA COMPAÑÍA BRITÁNICA DESARROLLA UN NUEVO SISTEMA DE ADMINISTRACIÓN DE TERAPIAS GÉNICAS Por: Agencias
La compañía británica de biotecnología Eurogene declara haber desarrollado un nuevo sistema para la administración de terapias génicas que se basa en un nuevo tip de virus para transportar los genes al organismo. El sistema, que utiliza un baculovirus como vector para el transporte del material genético, ha demostrado su eficacia en estudios con conejos, según un artículo publicado en la revista “Gene Therapy”. La terapia génica supone introducir nuevos genes en el organismo para tratar una enfermedad. El uso de virus como vectores ha levantado una gran polémica, siendo los adenovirus los más utilizados actualmente. "Los baculorvirus se utilizan en la actualidad en insecticidas, y su ventaja es que no infectan ninguna especie vertebrada. Los otros virus utilizados son todos patógenos humanos", declaró Alan Boyd, director de Eurogene. Los adenovirus son una clase de gérmenes que provocan el resfriado común. "Además, podemos obtener mayores fragmentos de genes en el baculovirus". Boyd espera que el nuevo sistema vector puede servir de base para futuros tratamientos génicos para el cáncer y las enfermedades cardiacas y neurológicas. El principal problema al que se enfrentaron los científicos de Eurogene es evitar que el sistema inmune
Página 10/11
acabe con el baculorivus antes de que este pueda transferir la carga génica. La solución residió en utilizar un mecanismo que protegía al virus durante el tiempo suficiente. Para más información: Gene Therapy http://www.stockton-press.co.uk/gt/
Página 11/11