¿Ya se sabe `todo´en matemática?

Es curioso, pero es tal la “desconexión” entre la sociedad y la matemática que la mayoría de la gente piensa (con razón, porque esos son los elementos con los que cuenta) que la matemática “está toda inventada” o que es algo “cuadrado” que uno va, estudia y no aplica, salvo en contadísimas ocasiones (suma, resta, división y multiplicación incluidas).

Sin embargo -escribe Adrián Paenza en Página 12-, no sólo no es así, sino que la matemática anda por la vida como la mayoría de las ciencias: sabiendo algunas cosas, pocas, e ignorando otras, muchísimas.

El siguiente recorrido no pretende ser exhaustivo ni mucho menos original. Más aún: aparece en casi todos los “prólogos” de libros dedicados a la matemática. Pero si lo que usted estudió de matemática llegó (con suerte) hasta el secundario, lo invito a que reflexione sobre lo que va a leer.

Es una historia que quiero empezar así:

Los chicos que se gradúan hoy del colegio secundario, aun aquellos que tienen una sólida formación en álgebra, geometría y trigonometría, están casi 400 (cuatrocientos) años atrasados con respecto a lo que es la “matemática de punta hoy”.

Es decir: aprenden lo que se sabía ya hace 400 años. Creo que uno podría aspirar a un poco más. Por eso todo resulta aburrido e inexplicable. Y de difícil aplicación.

1) La matemática del siglo XIX produce un “quiebre” esencial: la aparición del “cálculo”, con el aporte casi simultáneo de dos científicos que se odiaron mientras vivieron. Me refiero al inglés Isaac Newton y al alemán Gottfried Leibniz. Más allá de las disputas personales, ambos “co-inventaron” la noción de “límite” y con ello floreció el “cálculo” y/o “el análisis”. Esto significó el desarrollo de la física matemática, de la teoría de la relatividad, la mecánica cuántica y la naturaleza de la materia.

2) Luego Georg Cantor y su teoría sobre los conjuntos infinitos irrumpe sobre el final del mismo siglo y se prolonga hasta principios del siglo pasado, creando en algún sentido un paraíso para la investigación en matemática. Cantor terminó poco menos que “loco” y vilipendiado por una comunidad que no lo comprendió.

Aquí, una pausa: en general, en los programas de matemática de los colegios secundarios, las teorías de Newton-Leibniz, de Cantor, los aportes de Gauss, Fermat y Euler no se estudian. Y ése es un pecado que necesitamos corregir. Sigo.

3) Justamente con el advenimiento del siglo XX, justo en el año 1900, David Hilbert enuncia en París, en el marco del Congreso Internacional de Matemática, los 23 problemas más importantes de la matemática que aún no tenían solución. Con esto desafió al mundo –matemático, obviamente– e invitó a la comunidad científica a “arremangarse” y tratar de producir resultados. Hilbert dijo: “Tenemos que saber y vamos a saber”. Estas palabras son las que están escritas en su tumba en Gottingen.

4) Nuevas ramas como la topología nacieron de la geometría y del análisis y dominaron la investigación en matemática durante muchísimo tiempo. Se produjo también la enfática irrupción de las “Probabilidades y Estadísticas”, muy ligadas con la teoría de conjuntos, las funciones que se llaman “medibles” y las “teorías de integración”.

5) Los últimos dos matemáticos “universalistas” fueron Gauss y Poincare. Es que hace un siglo era posible imaginar que un extraordinario matemático pudiera manejar todo lo que se sabía de su especialidad en el mundo. Pero eso hoy no puede pasar. Otra vez, no sólo es improbable, sino “imposible”. La cantidad de matemáticos en el mundo se ha multiplicado por miles. Más aún: se publican también miles de revistas de variadas especialidades en más de cien idiomas. El volumen del conocimiento ha llegado a límites para el asombro. Se estima que se producen más de 200.000 nuevos teoremas por año, lo cual significan unos 600 teoremas nuevos ¡por día!

6) El 24 de mayo del año 2000, en el College de Francia, en París, el Clay Mathematics Institute que tiene su base en Cambridge, Massachusetts, hizo algo parecido a lo que produjo Hilbert cien años antes: eligió siete problemas sin solución aún y los llamó “Millenium Prize Problems”. La idea fue publicitar los problemas y, para hacerlo, el Instituto ofrece un millón de dólares a quien pueda resolver alguno de ellos. Justamente, ésos son los problemas que están en la frontera del conocimiento.

7) Hace muy poco, en agosto de 2006, el ruso Grigori Yakovlevich Perelman sorprendió al mundo cuando anunció que había resuelto la famosa “Conjetura de Poincare”, uno de los “Millenium Prize Problems”. Perelman se negó a retirar su premio, pero sin embargo la comunidad matemática le confirió la medalla Fields (equivalente al Premio Nobel). Perelman también se negó a retirar este premio y actualmente se encuentra recluido en su ciudad de origen, en Rusia.

¿Quién dijo que se sabía “todo”? El solo hecho de que “aceptemos” esto como posible demuestra qué lejos estamos del contacto con la “matemática real”, la que investiga y no sabe, la que es curiosa y atractiva, la que es seductora y útil. La que hay que mostrar, la que hay que sugerir. Y creo que ya es hora de empezar.

Tomado de http://blogs.periodistadigital.com

Trampa en el Cyberespacio

Trampa en el Cyberespacio[+]

La version original y completa esta en

http://hal.famaf.unc.edu.ar/%7Eayed1/taller/lecturas/dicosmo.html#OverDrive

Roberto Di Cosmo

Liens-Dmi
Ecole Normale Supérieure
45, Rue d’Ulm – 75230 Paris CEDEX 05
E-mail: dicosmo@ens.fr
Web: http://www.dmi.ens.fr/~dicosmo

Durante las últimas vacaciones de Navidad me he quedado asombradísimo con la fascinación creciente de los medios de comunicación por ese oscuro objeto del deseo que se oculta detrás de las palabras “ordenador”, “multimedia”, “web”, “internet” y sus derivados. Si uno creyera a esos medios de comunicación y a un buen número de expertos improvisados, no se podría pretender ser un ciudadano de primera clase sin poseer el ultimísimo (y muy caro) material informático que da acceso al paraíso encantado del “cyberespacio”.

Es también difícil ignorar la omnipresente y extraña confusión que nos incita a pensar que el único tipo existente de ordenador es el PC, por supuesto equipado con un chip de Intel, y que en ese PC sólo puede haber un programa indispensable, Microsoft Windows[+].

Esto es todavía más curioso si consideramos que el fenómeno de servilismo intelectual ante estos dos gigantes americanos llega a su punto máximo justo en el momento en el cual los Estados Unidos parecen comenzar a despertarse de un largo sueño que ha permitido a estos gigantes adquirir una posición de monopolio prácticamente absoluta. Por el camino, ambas empresas han destruido un número impresionante de empresas cuyos productos eran de calidad muy superior (todo esto está muy bien documentado en numerosas obras — como por ejemplo [1, 2, 3] — disponibles en los Estados Unidos, pero no han sido, que yo sepa, traducidas al francés).

Pienso por ejemplo en la campaña lanzada por Ralph Nader (defensor de los consumidores que ha logrado hacer retirar del mercado un automóvil peligroso producido por General Motors) y en el proceso que está llevando a cabo el DOJ (Department of Justice, el ministerio de justicia federal de EEUU) contra Microsoft en este momento. Pienso sobre todo en la sorprendente reacción del público americano en los sondeos de opinión en Internet: una mayoría aplastante apoya las acciones del DOJ incluso cuando las encuestas son realizadas por empresas como CNN, que son decididamente pro-Microsoft en sus artículos (sondeos de opinión de la CNN [4] y también de la ZDnet [5]; esta última limitó arbitrariamente la duración de la encuesta y no anunció su resultado hasta haber recibido numerosas cartas de protesta).

Por el contrario, nuestro público está bien lejos del despertar: mecido por la suave voz del conformismo ambiental, se adormece aún más y más en los brazos de Microsoft. Nuestro público sueña con un mundo feliz, en el cual un gran filántropo distribuye a todos los estudiantes de Francia copias gratuitas de Windows 95 con la única
finalidad de ayudarlos a recuperar su atraso tecnológico. Nuestro público sonríe al pensar en las pantallas azules llenas de mensajes tranquilizadores que explican cómo “el programa X ha provocado la excepción Y en el módulo Z”: fallo que por supuesto no ha sido culpa de Windows, sino del programa X. Nuestro público duerme feliz sin preguntarse por qué un ordenador mucho más potente que aquel que ha servido para enviar hombres a la luna — y que además los ha traído de vuelta vivos — no es capaz de manipular correctamente un documento de un centenar de páginas, cuando éste está equipado con ese Microsoft Office que hace tan felices a todos nuestros comentaristas.

Por favor, ¡pirateen mis canciones!

Si hubiese dedicado a repartir pizzas el mismo tiempo que he empleado en la música habría ganado más dinero sólo con las propinas. La creación artística no peligra —ni mucho menos— con la distribución gratuita en Internet. Use el Napster o el Gnutella sin remordimientos. De verdad que a los músicos nos hacen un favor.

Soy un músico con suerte. Mi grupo ha vendido, por los pelos, más de 10.000 copias de su primer LP. En un mundo en el que Enrique Iglesias coloca seis millones de CDs cantando así, esta modesta cifra tampoco es para tirar cohetes. Pero si me aplicase tanto como futbolista, jugaría en primera división y, si me dedicase a la medicina con tanto éxito, sería neurocirujano. Durante un par de semanas del mes de abril de 2000, uno de nuestros singles se coló en el número diecisiete de las listas de ventas en España; el número tres, si se contaba únicamente a los artistas nacionales. Cada año salen 32.000 discos nuevos al mercado en todo el mundo y sólo 250 convencen a más de 10.000 compradores. Apenas el 0,7% de los músicos que han presentado disco el año pasado (la gran mayoría no llega siquiera a grabar) es más afortunado que yo.

Se pensarán que nado en dinero. O que, por lo menos, vivo dignamente de mis habilidades musicales. ¿Cuánto cobra el 0,7% con más suerte de su profesión? No les aburriré con cifras pero, tras tres años de esfuerzos hasta conseguir ver mi LP en las tiendas, sólo he ganado poco más de medio millón de pesetas (unos 2.800 US$) por venta de discos y derechos de autor. Apenas 14.000 pesetas al mes es lo que me ha rentado mi afortunada carrera musical. Mi parte alícuota del local de ensayo –la garantía de que mis vecinos no me echarán de casa por ruidoso– me sale por seis mil pesetas al mes. Estas navidades quemé la mitad de mis beneficios en un teclado nuevo, un capricho. Si tuviera un gerente con facultad para vetar mis presupuestos, seguiría tocando con el casiotone que me regalaron los Reyes Magos en 1986.

No culpo a la piratería de mi bancarrota. No a la de “sexo, drogas y rock and roll” que aparece en el anuncio de pésimo gusto con el que la SGAE (Sociedad General de Autores y Editores) intentó concienciar a los melómanos de la necesidad de pasar por su caja. Como la gran mayoría de los chiflados que malgastamos nuestro tiempo en locales de ensayo y nuestro dinero en instrumentos y amplificadores, prefiero la satisfacción personal de saber que alguien se molesta en escuchar mi música a las treinta pesetas que me tocan por cada copia vendida (la cuarta parte si el disco está de oferta o es comprado durante una campaña de televisión).

Si mi gerente, ese imaginario del que les hablaba antes, fuese listo, estaría de acuerdo conmigo. Por cada concierto que doy, gano, dependiendo del aforo y la generosidad del promotor, entre 15.000 y 60.000 pesetas limpias. Prometo que si acuden a alguno de ellos, no les pediré una fotocopia del código de barras del CD para entrar. Como todos los músicos que hayan hecho las cuentas, sé que son más rentables 100.000 fans piratas que llenen mis conciertos a 10.000 originales.

El mp3, Napster o Gnutella tampoco van a acabar con la música. Ni con la mía ni con la de nadie. Les aseguro que, afortunadamente, puedo prescindir de las 14.000 pesetas mensuales que generan mis derechos de autor y mis royalties. A Metallica, y a cualquier grupo superventas, la regla, aunque sus cifras sean mayores, le vale igual. Dan mucho más dinero los conciertos, las camisetas y los anuncios que un grupo de su fama puede grabar, que el royalty (entre el 8 y el 15% del precio de venta a mayorista) que pagan las multinacionales por disco vendido. Es cierto que las compañías discográficas costean la grabación y la promoción de los músicos, pero ¿conocen algún otro negocio en el que el reparto entre los que aportan la idea y la mano de obra y los que ponen el dinero sea tan desigual? Les confieso que no entiendo las razones que movieron a Metallica y compañía a poner la cara por sus patrones. Todo, para que sus fans se la partan, pacte Dios con el Demonio y Napster pase de pirata a corsario. A mí se me habría puesto cara de tonto.

La distribución gratuita de las canciones por Internet no terminará con la creación musical, pero espero que sí lo haga con los abusivos tratos que impone la industria discográfica. Y eso que los ‘juntanotas’, con el tiempo, hemos mejorado bastante. Si los pobres músicos de blues de los años cuarenta –esos a los que el sello RCA (hoy, propiedad de Bertelsmann, el socio de Napster) pagaba seis dólares y una botella de bourbon por grabar sus canciones– oyesen los lamentos del batería de Metallica, Lars Ulrich…

No puedo alegar que no sabía dónde me metía cuando hace un año y medio firmé mi contrato con Universal Music. En aquella reunión, un alto directivo de la compañía me resumió en una sola frase los nueve folios del acuerdo: “Las discográficas somos un mal necesario”. No lo voy a negar. Sin ellas, mi grupo jamás habría vendido 10.000 discos. Aunque estoy seguro de que sí hubiese podido regalarlos.

Ignacio Escolar

¿Computadoras baratas para el Sur?

La propuesta norteamericana de computadoras baratas es un nuevo intento mundial de manipulación cultural. Así lo denunció el director del proyecto UTUTO, Daniel Olivera

Daniel Oliverira muestra la placa madre de la laptop barata del MIT, para la cual ha desarrollado un nuevo sistema operativo mejor que el propuesto originalmente por los diseñadores norteamericanos del equipo. Foto: Franklin Reyes.
Pequeña, de color verde y blanco, semejante a una maletica de colores o temperas. Pocos imaginan, si la ven sin abrir, que dentro hay una computadora que puede ser tan buena como cualquier otra. Sin embargo, enmascara un nuevo proyecto de dominación global de Estados Unidos. Esta vez, a través de la manipulación de los conocimientos.

Nacida por iniciativa de Nicholas Negroponte, un «gurú» de la Informática, la computadora de cien dólares, o Proyecto OLPC, se ha propagandizado ampliamente como una alternativa tecnológica de bajo costo que podría ayudar a reducir la «brecha digital».

Pero Daniel Olivera, un uruguayo que hace mucho vive en Argentina, piensa de forma muy diferente. Y no solo se ha contentado con disentir, sino que tiene en sus manos una alternativa realmente solidaria para este proyecto, y sin embargo los creadores de la «laptop de cien dólares» se niegan a escucharlo.

«Crear una computadora barata, cuyo costo actual ronda los 138 dólares, fue una iniciativa de Nicholas Negroponte, fundador y director del Media Lab, del Instituto Tecnológico de Massachussets (MIT, por sus siglas en inglés), Estados Unidos, quien es un gran ideólogo de las Ciencias Informáticas, pero también hermano de John Negroponte, director nacional de Inteligencia de Estados Unidos.

«Ante este proyecto de la OLPC, del cual conocía poco hace un año y hoy que sé más no estoy seguro de que sea tan bueno, se nos ocurrió que podríamos hacer una versión del sistema operativo de la máquina mucho mejor. Hoy ya no es una mera idea; se ha convertido en obligación, pues el plan del MIT es espantoso».
MIRANDO AL SUR

Daniel Olivera dirige en Argentina el proyecto UTUTO (www.ututo.org), cuyo nombre viene de una pequeña lagartija que vive en ese país, el cual persigue facilitar el acceso a los conocimientos a través de la tecnología, especialmente en los países del Sur.

La organización, que se mantiene por donaciones y desarrollando programas de software libre para diversas entidades, ha logrado crear varias versiones del sistema operativo UTUTO, enteramente en software libre, cuya calidad la atestigua el hecho de que Richard Stallman, el creador de este movimiento, lo use en su computadora personal.

«La mayoría de los sistemas operativos de software libre fueron creados en el Primer Mundo. Por eso desde el proyecto UTUTO nos propusimos hacer investigaciones que permitan acumular conocimientos y acceder mejor a este.

« Entre las iniciativas está la de desarrollar un sistema operativo que, a diferencia de otros basados en el es completamente libre y su control y desarrollo tienen lugar en el Tercer Mundo».

Ya con esta experiencia en la mano, y con un aval importante a partir de casi 500 000 descargas del sistema en unos cien países, Olivera y su equipo conocieron de la computadora de cien dólares y le pidieron al MIT que les enviara un prototipo para estudiarla mejor.

«Lo que nos enviaron fueron dos cajas con un equipo adentro, que incluso resultó muy complicado entrarlas a la Argentina, porque nadie sabía qué era. Ni siquiera en la Aduana tenían cómo clasificarlas, pues en esencia era un prototipo de la placa madre de la máquina, que va puesta detrás de la pantalla, y algunos componentes más.

«Nosotros mismos le adaptamos un teclado, un monitor, y nos propusimos desarrollar un sistema operativo desde cero, que se ejecutara en esta máquina. O sea, buscamos torcer un poco la idea original del plan, concebido desde el Primer Mundo, para hacer algo propio del Tercero y más adecuado a este».

El trabajo no fue fácil, porque la máquina, por su bajo costo, tiene limitaciones técnicas muy específicas, como no tener disco duro.

«Son solo la placa, el teclado, la pantalla y la pila. Esa placa tiene integrado el procesador de solo 1,1 watt, las memorias, una tarjeta de video, tres puertos USB, conexiones inalámbricas y un transformador», afirma Olivera.

En dieciocho días los programadores de UTUTO generaron un sistema operativo, trabajando casi 22 horas por jornada, y a diferencia del MIT, que casi no proporciona información de lo que hace, conectaron la máquina con el nuevo paquete de programas y la hicieron pública, para que cualquiera viera cómo funciona.

«O sea, antes que darla a nadie en específico, la primera computadora en la cual se puso nuestro sistema operativo estuvo disponible para cualquiera en la zona pobre de Buenos Aires, y libremente en Internet, por lo cual muchísima gente, más de mil usuarios, entraron al sistema de forma remota».
FRAUDE MUNDIAL

En diciembre del año pasado, después de mucha insistencia, el MIT les envió otro prototipo de máquina para experimentar, pero esta vez completamente armada.

«Después de dieciocho correos nos anuncia

ron que nos iban a enviar un nuevo prototipo y nos llegó una máquina ya armada, que en realidad es muy buena. No obstante, el proyecto, como les decía, tiene cosas oscuras que no nos gustan.

«Por ejemplo, el MIT tiene contratado con una empresa de Luxemburgo un sistema de ubicación satelital de los equipos cuando se mueven, lo cual contradice su mensaje de que es algo «abierto» o «libre», porque permite ubicar a quien tenga uno de estos dispositivos.

«Además, en los contenidos todo indica que estos equipos vienen con un servidor con un disco rígido de 60 gigabytes y un CD con materiales. Este servidor permite la conexión inalámbrica de las máquinas y visualizar los contenidos que están allí».

Igualmente —según explica Olivera— el sistema operativo de la computadora barata, que ha sido elaborado por la empresa de software libre Red Hat, permite solo siete desempeños: conectarse a otro servidor, navegar vía este, jugar algunos jueguitos educativos y utilizar un procesador de texto, entre otros.

«Esto se diferencia de nuestra propuesta, que tiene 250 programas, lo cual convierte esa máquina en una computadora común, con las mismas aplicaciones que cualquier otra. A tal punto es versátil nuestro sistema, que yo im-

partí mi conferencia y puse mi presentación en pantalla con esta placa».

—¿Eso quiere decir que podría funcionar como una computadora normal?

—Con la propuesta del MIT no, con la de Ututo sí. Esto es solo una máquina. Uno la puede hacer tan buena o tan mala como quiera.

«Nosotros lo que hicimos fue desarrollar un sistema más versátil y sin costo alguno. Cualquiera puede instalarlo en la computadora que quiera, menos en esta pues el MIT, muy «solidariamente» ha bloqueado la posibilidad de instalar otro sistema».

Detrás de todo esto, más que los supuestos motivos «humanitarios» hay un gran negocio, ya que el MIT no solo ganaría un gran por cie
nto del dinero por vender esta máquina a los gobiernos, pues solo admite que la compren por cantidades no menor de un millón; sino que además obtendría dinero por el servicio técnico y de reparaciones de estas máquinas.

«La máquina, si bien la idearon ellos, en realidad la hace Quanta, una empresa china, y el MIT le pone un precio por venderla a los gobiernos, ya que no se comercializará a particulares. Además, también cobra por el sistema operativo que le instalan», explica Daniel.

«Ahora sí, han logrado el «milagro» de disfrazar la manipulación de los contenidos».

—¿Por qué?

—El MIT ha desarrollado un paquete tecnológico para el área educativa, supuestamente para reducir la «brecha digital». Nadie está en contra de esto. ¿Donde empieza el problema? En que el MIT ha contratado a la Enciclopedia Virtual Wikipedia para el tema de los contenidos, a partir de que se supone que sean «libres», pues se pueden escribir por cualquiera.

«Pero es que esto significa, por ejemplo, que a los niños argentinos les va a enseñar geografía, por no decir historia, alguien que posiblemente no es del país. O sea, que tenemos 85 000 maestros en Argentina y quien les va enseñar geografía a nuestros niños es presumiblemente un norteamericano.

«Ellos se defienden diciendo que cualquiera puede escribir estos contenidos, incluso los maestros, pero es que para eso necesitan una computadora y la mayoría tendrían alguna si esta les llegara alguna vez… con los contenidos ya fabricados.

«Es un sistema espantoso de dominación y manipulación cultural global porque esta computadora viene con sistema de posicionamiento global para ubicar los equipos, otro para bloquear su uso cuando se les antoje a sus creadores y además los contenidos que van a utilizar adolescentes y jóvenes».
SISTEMA ALTERNATIVO

La propuesta de UTUTO de un nuevo sistema operativo para la máquina barata permitirá no solo instalar más programas con su sistema operativo, lo cual garantiza una mayor versatilidad, sino también una visión más solidaria.

«Nosotros consideramos que no hay por qué estar sujeto a los programas que trae de por sí la computadora. Con los nuestros, no solo mejora esta, sino que además, sin costo adicional alguno, pudiera ser muchísimo mejor», afirma Daniel.

Esto propiciaría que cualquiera que lograra producir una computadora similar ya tendría un sistema para ella, gratuito y que puede ser descargado libremente desde Internet.

Solo falta que alguien escuche a estos programadores del Sur, para quienes la ganancia está en que todos aprendan más.


Por: Agnerys Rodríguez y Amaury E. del Valle
http://www.juventudrebelde.cu/cuba/2007-02-16/computadoras-baratas-para-el-sur/
Correo: informaticajr@jrebelde.cip.cu
16 de febrero de 2007 02:11:34 GMT

Por qué Juancito no puede entender

Edsger W. Dijkstra. (EWD991)

http://www.cs.utexas.edu/users/EWD/ewd09xx/EWD991.PDF

Hace unos años escuché una disertación sobre la estructura de las pruebas. Sin vacilar, el disertante se volvió muy gráfico y las pruebas se convirtieron en grafos dirigidos con flechas de los antecedentes a los consecuentes. [Mathematics Inc. hubiera comercializado el producto por aquellos días como Entendimiento Asistido por Computadoras Mediante Animación de Argumentos.] Luego de quince minutos el orador dirigió nuestra atención hacia el hecho de que algunas pruebas eran planas, en tanto que otras no lo eran. Luego, mostró cómo transformaciones simples de las pruebas en otras lógicamente equivalentes podían cambiar su “planaridad“; pero en vez de concluir que, por lo tanto, la planaridad de las pruebas no era probablemente un concepto relevante, se embarcó en un estudio de los argumentos intrínsecamente no-planos, etc.

Fue la disertación más absurda que he oído en años. (Por eso aún la recuerdo.) El pobre tipo era una grave víctima de su educación: confundía el grafo dirigido, como un subconjunto de los pares ordenados, con la representación gráfica de flechas entre puntos. [Si hubiera sido instruido sobre las matrices de incidencia, podría haber disertado sobre los eigenvalores de las pruebas.]

Esto es lo que nos sucede una y otra vez. Cuando se nos introduce un nuevo concepto se nos dan varios ejemplos de un contexto esperanzadoramente familiar, o se nos dan uno o dos modelos en los cuales el nuevo formalismo, sus objetos y sus operaciones pueden ser “entendidos”. Y realmente se nos alienta a realizar esas interpretaciones para convencernos a nosotros mismos de que el nuevo formalismo “tiene sentido”. Fallan, sin embargo, en advertirnos de que tales interpretaciones tienden a ser engañosas porque los modelos son sobreespecíficos; en que tales hábitos de entendimiento son totalmente desconcertantes cuando las visualizaciones que los acompañan desorientan a la imaginación y que la carga mental de moverse hacia y desde la fórmula y su interpretación, debe mejor evitarse. De hecho, uno solo puede esperar que, al aumentar la familiaridad con el formalismo, el modelo tranquilamente se esfume de nuestra conciencia.

Esto ya había comenzado cuando se nos enseñaron los números naturales. No aprendimos que 2 + 3 = 5, primero aprendimos -¡gráficamente!- que dos manzanas y tres manzanas son cinco manzanas, y luego para peras, para plumas, para gatos, árboles y elefantes. El modelo de la manzana es penosamente inadecuado, dado que, para dar lugar al producto, la manzana tiene que ser elevada al cuadrado, y por consiguiente -y afortunadamente- se desvanece; pero no antes de haber creado un obstáculo para los enteros negativos. Se puede argumentar que seguimos pagando el precio, esto es, si consideramos la invisibilidad del cero en el modelo de la manzana como la responsable de todas las complicaciones matemáticas causadas por considerar el 1 como el menor número natural. (En comparación con los griegos hemos sido afortunados: con sus segmentos de línea pudieron multiplicar muy poco, desafortunadamente lo suficiente como para no tirar su modelo. Y eventualmente la matemática griega murió por su pobreza conceptual y complejidad gráfica: una lección para todos nosotros.)

Dudo seriamente que el desvío a través del modelo de la manzana sea esencial para enseñar los enteros a niños pequeños, pero aún en tal caso, no veo la razón por la cual un proceso de aprendizaje que pueda ser apropiado para niños pequeños deba serlo también para la mente adulta. Y esta parece ser la asunción sobre la cual operan la mayoría de los escritores y muchos de los lectores adultos. Mi -triste- conclusión es que los patrones más difundidos de entendimiento no han sido seleccionados concienzudamente por su efectividad y pueden ser mejor descriptos como hábitos adictivos, muchos de los cuales merecen una advertencia de cirugía general.

Mi observación más común es ver gente que se siente más confortable con el específico innecesario. Cuando son confrontados a un conjunto parcialmente ordenado, piensan mentalmente “por ejemplo, los enteros”. Mientras yo fui entrenado para evitar los ejemplos al leer un texto -dado que pueden ser superfluos y, en cualquier caso, distraen-, veo gente que se siente más incómoda fuando se enfrentan a un texto sin ejemplos. Gente que tiene dificultad en entender una construcción que contiene un parámetro natural k me ha asegurado que dicha parametrización presenta un obstáculo adicional que podrían remover sustituyendo inicialmente k por un valor pequeño, digamos 3. No tengo motivos para dudar de su palabra; el extraño fenómeno probablemente estaba conectado al hecho de que k no ocurría en un contexto muy aritmético, sino como la longitud de cadenas o la cantidad de arcos que confluyen en un vértice (contextos en los cuales están habituados a manejarse en términos de gráficos). De la misma forma una permutación “arbitraria” creó problemas similares: hubieran preferido una específica, posiblemente seguida de un comentario al final que indicara que la elección de la permutación no importaba realmente. Es muy extraño, hasta desconcertante, ver a gente perturbada cuando se dejan abiertas preguntas cuyas respuestas son irrelevantes.

Una observación final me sugiere que, de hecho, es culpa del sistema educativo. Recuerdo muy bien la introducción de la idea de que es tarea del profesor el motivar a sus estudiantes. (La recuerdo muy bien porque pensé que la idea era muy absurda.) Ahora encuentro jóvenes científicos educados bajo el régimen motivador, que tienen una desventaja notable: su habilidad para absorber información no motivada está limitada a unas 10 líneas. El objeto y su propósito son cosas diferentes, pero ellos no aprendieron a distinguirlo y ahora son incapaces de separar estos asuntos. Es un ejemplo atemorizador de cómo la educación puede infundir necesidades psicológicas que se vuelven una importante desventaja.

 

Austin, 5 de noviembre de 1986

prof.dr.Edsger W.Dijkstra
Departamento de Ciencias de la Computación
Universidad de Texas
Austin, TX 78712-1188
Estados Unidos de América

El sutil arte de detectar camelos

Definicion

Antes de comenzar con el articulo vamos a dar una definicion tomada de WordReference

camelo

  1. m. Simulación, fingimiento, engaño que intenta parecer verdadero:
    la publicidad intenta que parezca un método efectivo, pero se nota que es un camelo.
  2. Noticia falsa:
    esa supuesta boda suena a camelo.

Hecho esto Vamos por el artículo en si


El Mundo y sus Demonios
Por Carl Sagan

En ciencia, podemos empezar con resultados experimentales, datos, observaciones, medidas, «hechos». Inventamos, si podemos, toda una serie de explicaciones posibles y confrontamos sistemáticamente cada explicación con los hechos. A lo largo de su preparación se proporciona a los científicos un equipo de detección de camelos. Este equipo se utiliza de manera natural siempre que se ofrecen nuevas ideas a consideración. Si la nueva idea sobrevive al examen con las herramientas de nuestro equipo, concedemos una aceptación cálida, aunque provisional. Si usted lo desea, si no quiere comprar camelos aunque sea tranquilizador hacerlo, puede tomar algunas precauciones; hay un método ensayado y cierto, probado por el consumidor.

¿De qué consta el equipo? De herramientas para el pensamiento escéptico.

El pensamiento escéptico es simplemente el medio de construir, y comprender, un argumento razonado y —especialmente importante— reconocer un argumento falaz o fraudulento. La cuestión no es si nos gusta la conclusión que surge de una vía de razonamiento, sino si la conclusión se deriva de la premisa o punto de partida y si esta premisa es cierta.

Entre las herramientas:

  • Siempre que sea posible tiene que haber una confirmación independiente de los «hechos».
  • Alentar el debate sustancioso sobre la prueba por parte de defensores con conocimiento de todos los puntos de vista.
  • Los argumentos de la autoridad tienen poco peso: las «autoridades» han cometido errores en el pasado. Los volverán a cometer en el futuro. Quizá una manera mejor de decirlo es que en la ciencia no hay autoridades; como máximo, hay expertos.
  • Baraje más de una hipótesis. Si hay algo que se debe explicar, piense en todas las diferentes maneras en que podría explicarse. Luego piense en pruebas mediante las que podría refutar sistemáticamente cada una de las alternativas. Lo que sobrevive, la hipótesis que resiste la refutación en esta selección darwiniana entre «hipótesis de trabajo múltiples» tiene muchas más posibilidades de ser la respuesta correcta que si usted simplemente se hubiera quedado con la primera idea que se le ocurrió.[1]
  • Intente no comprometerse en exceso con una hipótesis porque es la suya. Se trata sólo de una estación en el camino de búsqueda del conocimiento. Pregúntese por qué le gusta la idea. Compárela con justicia con las alternativas. Vea si puede encontrar motivos para rechazarla. Si no, lo harán otros.
  • Cuantifique. Si lo que explica, sea lo que sea, tiene alguna medida, alguna cantidad numérica relacionada, será mucho más capaz de discriminar entre hipótesis en competencia. Lo que es vago y cualitativo está abierto a muchas explicaciones. Desde luego, se pueden encontrar verdades en muchos asuntos cualitativos con los que nos vemos obligados a enfrentarnos, pero encontrarlos es un desafío mucho mayor.
  • Si hay una cadena de argumentación, deben funcionar todos los eslabones de la cadena (incluyendo la premisa), no sólo la mayoría.
  • El rasero de Occam. Esta conveniente regla empírica nos induce, cuando nos enfrentamos a dos hipótesis que explican datos igualmente buenos, a elegir la más simple.
  • Pregúntese siempre si la hipótesis, al menos en principio, puede ser falsificada. Las proposiciones que no pueden comprobarse ni demostrarse falsas, no valen mucho. Consideremos la gran idea de que nuestro universo y todo lo que contiene es sólo una partícula elemental —un electrón, por ejemplo— én un cosmos mucho más grande. Pero si nunca podemos adquirir información de fuera de nuestro universo, ¿no es imposible refutar la idea? Ha de ser capaz, de comprobar las aseveraciones. Debe dar oportunidad a escépticos inveterados de seguir su razonamiento para duplicar sus experimentos y ver si se consigue el mismo resultado.
  • La confianza en los experimentos cuidadosamente diseñados y controlados es clave, como he intentado subrayar antes. No aprenderemos mucho de la mera contemplación. Es tentador quedarse satisfecho con la primera explicación posible que se nos ocurre. Una es mucho mejor que ninguna. Pero ¿qué ocurre cuando inventamos varias? Francis Bacon proporcionó la razón clásica:

Puede ser que la argumentación no baste para el descubrimiento de un nuevo trabajo, porque la sutileza de la naturaleza es muchas veces mayor que la del argumento.

Los experimentos de control son esenciales. Si, por ejemplo, se dice que una medicina nueva cura una enfermedad en el veinte por ciento de los casos, debemos asegurarnos de que una población de control que toma una pastilla de azúcar que los pacientes creen que podría ser el nuevo medicamento no experimente una remisión espontánea de la enfermedad en el veinte por ciento de los casos.

Deben separarse las variables. Supongamos que usted está mareado y le dan una pulsera de metal y 50 miligramos de dimenhi-drinato. Descubre que le desaparece el malestar. ¿Qué ha sido: la pulsera o la pastilla? Sólo puede saberlo si la vez siguiente toma una cosa y no otra y se marea. Ahora supongamos que usted no tiene tanta devoción por la ciencia como para permitirse estar mareado. Entonces no separará las variables. Tomará los dos remedios a la vez. Ha conseguido el resultado práctico deseado; se podría decir que no le merece la pena la molestia de conseguir más conocimientos.

A menudo el experimento debe ser de «doble ciego» a fin de que los que esperan un descubrimiento determinado no estén en la posición potencialmente comprometedora de evaluar los resultados. Cuando se prueba una nueva medicina, por ejemplo, quizá se quiera que los médicos que determinan qué síntomas de los pacientes se han visto aliviados no sepan qué pacientes han recibido el nuevo fármaco. El conocimiento podría influir en su decisión, aunque sólo fuera inconscientemente. En cambio, la lista de los que experimentaron remisión de síntomas puede compararse con la de los que tomaron el nuevo fármaco, realizada cada una con independencia. Entonces se puede determinar qué correlación existe. O cuando hay un reconocimiento policial o una identificación de foto, el oficial responsable no debería saber quién es el principal sospechoso para no ¡afluir consciente ni inconscientemente en el testigo.