6/6/15

PARADOJA DE SAN PETERSBURGO


En 1713 el matemático suizo Nicolaus Bernoulli propuso una conjetura entre A y B, donde el valor esperado para B es infinito, se trata de un juego de apuestas de infinitas ganancias, cosa que resulta inconsistente. Tras 25 años, en 1738 Daniel Bernoulli, primo de Nicolaus, publicó la primera posible solución  sobre las actas de la academia de San Petersburgo.

Esta famosa paradoja de la teoría de la probabilidad y la teoría de decisiones que consiste en un juego de apuestas con un valor esperado infinito, plantea lo siguiente: “Se lanza una moneda al aire de forma sucesiva hasta que salga cruz por primera vez, quedando el premio para el jugador condicionado al número de veces que se ha lanzado la moneda, empezando por 2 y duplicando el premio en cada lanzamiento. Si sale cruz en el primer lanzamiento, el premio sería de 2¹=2, si saliera en la segunda, 2²=4, si fuera la tercera 2³=8 y así sucesivamente, de manera que en n tiradas el premio sería 2ⁿ.” [1]

La paradoja plantea varias inconsistencias, pues en realidad el jugador sólo está dispuesto a pagar una pequeña cantidad y, por otro lado, la banca tendría que tener disponible un monto infinito de dinero para enfrentar una ganancia que teóricamente no tiene tope. Entonces, ¿cuál es el precio justo que el jugador debería pagar para entrar al juego sin la que la apuesta le sea desfavorable? ¿Cuánto debe tener la banca en realidad para enfrentar los gastos de esta apuesta? [2]

Antes de empezar el juego hay un número infinito de posibles resultados: que la primera cruz salga en el lanzamiento 1°, que salga en el lanzamiento 2°, en el 3°, en el 4°… La probabilidad de que la primera "cruz" aparezca en el lanzamiento k es de: pᵏ = 1/2ᵏ; y la ganancia es 2ᵏ. Salir cruz en el 1° tiene una ganancia de 2¹ y una probabilidad de 1/2; salir cruz en el 2° tiene una ganancia de 2² y una probabilidad de 1/2²; salir cruz en el 3° tiene una ganancia de 2³ y una probabilidad de 1/2³…, y así indefinidamente:
 (1/2 • 2 + 1/4 • 4 + 1/8 • 8 + 1/16 • 16 + 1/32 • 32 +.....+... = 1 + 1 + 1 + 1 + 1 +...+.....=∞

Entonces la esperanza matemática de ganar es:
Luego para participar en el juego basta con invertir una cantidad menor infinito. Este es el motivo por el que se conoce a este juego como la paradoja de San Petersburgo. [3]

En definitiva, el juego no es interesante para nadie. Poquísima gente invertiría grandes cantidades y por otro lado ningún casino estaría interesado ante la posibilidad, por pequeña que fuera, de quedar totalmente arruinado frente al pago de un premio desorbitado. [4]

Para esta paradoja, que ha sido debatida durante más de 300 años y que ha resultado ser de gran interés para la teoría económica moderna, se han propuesto varias soluciones, algunas son:

Daniel Bernoulli (1938) indicó que cualquier incremento en riqueza, no importa cuán insignificante, siempre resultará en un incremento en utilidad que es inversamente proporcional a la cantidad de bienes ya poseídos. “Los matemáticos, en su teoría, valoran el dinero en proporción a la cantidad del mismo; la gente con sentido común, en la práctica, lo valora en proporción a la utilidad que puede obtener de él”. Lo que quería decir Bernoulli es que no es lo mismo ganar 100 cuando se tienen 10 que cuando ya se tienen 1.000, y que a partir de cierto número de tiradas, la utilidad marginal de los premios se acerca a cero. A efectos prácticos, es lo mismo ganar mil billones que dos mil, pero valoramos mucho el dinero que apostamos, y nuestro sistema de aversión al riesgo nos hace reacios a invertir grandes cantidades en apuestas poco probables, aunque las ganancias sean infinitas como en este caso.[1]

La función de utilidad (u(x)) es el truco que los economistas usan para poder representar matemáticamente las preferencias de los agentes económicos, y en el caso de una persona racional, aunque es siempre creciente, crece de forma cóncava (es decir, crece cada vez más despacio). El sentido común apoya esta intuición. El valor "real" de 100 euros para alguien que tiene cero es muchísimo (ya que es una cuestión de supervivencia), pero para alguien que ya tiene un millón de euros, es ínfimo. Dicho de otra forma, la utilidad marginal del dinero es decreciente.
Por lo tanto, no hay que medir el valor esperado del juego, sino la utilidad esperada (que llamaremos U). Repasando las fórmulas del otro post, nos daríamos cuenta rápidamente de que dicha utilidad es U = (1/4)•u(2) + (1/8)•u(4) + (1/16)•u(8) + ... = Σ[u(2n)/2n+1], donde u(x) representa la utilidad de percibir x euros. Pero ¿cómo es la función u(x)? en realidad, es imposible medir numéricamente la satisfacción obtenida, y de hecho, cada consumidor tendrá su propia función de utilidad (por ejemplo, un amante del riesgo percibirá en el juego una utilidad esperada mayor que una persona muy conservadora). [5]

Una solución de la paradoja también llegó por parte del matemático norteamericano William Feller en 1945, usando la demostración de una ley débil de grandes números que había propuesto en 1937. Feller planteó permitir un número finito, pero suficientemente grande de N repeticiones del juego. Entonces, el precio justo de cada juego seria log N, el logaritmo con base 2 de N. Así, el precio justo que pagaría el jugador por repetir el juego 1024 veces, sería de 10 monedas. Feller demostró también que no se tiene una convergencia casi segura bajo ninguna normalización. [6]

Un análisis interesante de esta paradoja fue el realizado por Luis Cañas en su obra “El falso dilema del prisionero. Una visión más amplia de las decisiones racionales” (2008), que consiste en limitar el número máximo de tiradas para que salga cruz, y calcular así la esperanza matemática en cada caso: Lógicamente, a medida que aumentamos el número de tiradas posibles, el premio máximo crece exponencialmente, pero también lo hace el riesgo de volvernos con menos dinero del invertido, al tiempo que decrecen las posibilidades reales de llevarnos esas grandes cantidades. Ahí es cuando empieza intervenir la mencionada utilidad del dinero, la aversión al riesgo o incluso el temor de que la banca en realidad no podría asumir un premio tan grande, dada la escasa probabilidad de que ocurra. [7]

Así mismo, el matemático francés D’Alembert en la teoría desarrollada en su obra “La Ley del equilibrio”, conjeturaba un posible equilibrio entre “éxitos” y “fracasos” de ciertos sucesos aleatorios, siempre y cuando la serie de dichos sucesos fuese lo suficientemente larga. [8]

En 1934, el economista austriaco Karl Menger señaló que siempre se podría inventar un juego alternativo en el que el premio crezca a una velocidad tan rápida que su logaritmo siga aumentando a un ritmo tal que nunca llegue a estabilizarse. En ese "super-juego de San Petersburgo" el valor de la utilidad esperada sería también infinito y, sin embargo, ningún jugador ofrecería una suma muy elevada por jugar. Otros autores señalaron que nadie sensato jugaría al juego de San Petersburgo, porque si el jugador tiene mucha suerte, la primera cara tarda en salir y, en consecuencia, el premio es descomunal, la "banca" no tendría previsiblemente recursos para satisfacerlo. Así pues, en el mundo real el premio potencial es siempre finito.

Finalmente, el año 2000 Matthew Rabin, uno de los defensores de la "Psicología Financiera" (Behavioral Finance), mostró que la aversión al riesgo de los individuos y, en particular, su rechazo de pequeñas apuestas con esperanza matemática positiva, no puede basarse en la hipótesis de Bernouilli del carácter decreciente de la utilidad marginal, porque eso llevaría a que rechazaran apuestas con premios elevadísimos y escasísimo riesgo. La explicación de ese habitual rechazo de pequeñas apuestas con un valor esperado positivo está, según Rabin, en la valoración asimétrica que damos a las pérdidas y a las ganancias, uno de los principios esenciales de la Prospect Theoryde Daniel Kahneman y Amos Tversky, una teoría que constituye el núcleo esencial de la Psicología Financiera.   Algunos han visto un paralelismo entre la paradoja de San Petersburgo y las desmesuradas valoraciones de algunas growth stocks durante la burbuja dotcom que concluyó en la primavera del 2000: la ingenua previsión de que sus beneficios crecerían indefinidamente en el futuro a una tasa superior al tipo de interés de descuento habría elevado desmesuradamente su valoración. [9]

A continuación, un ejemplo …




Fuentes [1], [2], [3],[4], [5], [6], [7], [8], [9].

DIAGRAMA DE PARETO

El diagrama de pareto consiste en una representación particular del gráfico de barras, dichas barras representan los datos que están ordenados en forma descendente, enlazado a una curva de tipo creciente. Este gráfico resulta útil para identificar los aspectos prioritarios que se deben enfrentar respecto a los problemas, causas, servicios, etc.

Por lo tanto, el diagrama de Pareto es una herramienta de análisis que ayuda a tomar decisiones dentro de una organización en función de prioridades para evaluar todas las fallas y si se pueden resolver o mejor evitarlas. Su base se debe al principio de Pareto, también conocido como la ley de los muchos triviales y pocos vitales, la regla del 80-20, distribución ABC o principio de escasez del factor.

Principio de Pareto

Fue enunciado por primera vez por Wilfried Pareto (Paris 1848 – Turín 1923), basándose en el conocimiento empírico, indica que aproximadamente el 80% de los problemas se explica por aproximadamente el 20% de las causas. En otras palabras: un 20% de los errores vitales, causan el 80% de los problemas, o lo que es lo mismo; en el origen de un problema, siempre se encuentran un 20% de causas vitales y un 80% de triviales.


Procedimiento para diseñar un diagrama de Pareto



Propósitos del diagrama de Pareto

- Conocer cuál es el factor o factores más importantes en un problema.
- Determinar las causas raíz del problema.
- Decidir el objetivo de mejora y los elementos que se deben mejorar.
- Conocer se ha conseguido el efecto deseado (por comparación con los Paretos iniciales).

Generación del diagrama de Pareto

El diagrama contiene un eje horizontal de categorías y dos ejes verticales, el de la izquierda con una escala proporcional a la magnitud medida (valor total de los datos) y el de la derecha con una escala porcentual del mismo tamaño (porcentaje acumulado).
Se colocan las barras de mayor a menor y de izquierda a derecha, pero poniendo en último lugar la barra correspondiente a otros (aunque no sea la menor).
Se marcan en el gráfico con un punto cada uno de los porcentajes acumulados (los puntos se pueden situar en el centro de cada una de las categorías o en la zona dónde se juntan una con otra) y se unen los puntos mediante líneas rectas.
Se separan (por medio de una línea recta discontinua, por ejemplo) las pocas categorías que contribuyen a la mayor parte del problema. Esto se hará en el punto en el que el porcentaje acumulado sume entre el 70% y el 90% del total (generalmente en este punto la recta sufre un cambio importante de inclinación).

Partes del diagrama de Pareto:


Interpretación

La interpretación de un Diagrama de Pareto se puede definir completando, por ejemplo, las siguientes oraciones: “Existen (número de categorías) contribuyentes relacionados con (efecto). Pero estos (número de pocos vitales) corresponden al (número) % del total (efecto). Debemos procurar estas (número) categorías pocos vitales, ya que representan la mayor ganancia potencial para nuestros esfuerzos.”

Usos del diagrama

- Al identificar un producto o servicio para el análisis para mejorar la calidad.
- Cuando existe la necesidad de llamar la atención a los problema o causas de una forma sistemática.
- Al identificar oportunidades para mejorar
- Al analizar las diferentes agrupaciones de datos (ej: por producto, por segmento, del mercado, área geográfica, etc.)
- Al buscar las causas principales de los problemas y establecer la prioridad de las soluciones
- Al evaluar los resultados de los cambios efectuados a un proceso (antes y después)
- Cuando los datos puedan clasificarse en categorías
- Cuando el rango de cada categoría es importante
- En casos típicos, los pocos vitales (pasos, servicios, ítems, problemas, causas) son responsables por la mayor parte en el impacto negativo sobre la calidad

Ejemplos: 1, 2, 3, 4, 5.



Fuentes: 1, 2, 3, 4, 5, 6, 7.

LAS TORRES DE HANÓI

Édouard Lucas, (Amiens, 4 de abril de 1842 - París, 3 de octubre de 1891) fue un reconocido matemático francés reconocido por sus trabajos sobre la serie de Fibonacci, la prueba de Lucas o el test de primalidad, en 1883 publicó el juego de “La Torre de Hanói” (“La Tour de Hanoi”) bajo el pseudónimo de Profesor N. Claus de Siam.

El juego de las Torres de Hanói es un dispositivo que consta de tres varillas verticales A, B y C y un número variable de discos. Los n discos son todos de diferente tamaño y, en la posición de partida del juego, todos los discos están colocados en la varilla A ordenados de mayor a menor tamaño, esto es, el mayor en el lugar más bajo y el menor arriba. El juego consiste en pasar todos los discos a la tercera varilla colocándolos de mayor a menor. Conforme aumenta el número de discos la dificultad del juego también, así como el tiempo de resolución sin haber cometido ningún error.

Leyenda

En las instrucciones que acompañaban al juego original, Édouard Lucas incluía una breve referencia a una leyenda relacionada con los brahmanes de Benarés (India) y sus templos: “En el gran templo de Benarés, debajo de la cúpula que marca el centro del mundo, yace una base de bronce, en donde se encuentran acomodadas tres agujas de diamante, cada una del grueso del cuerpo de una abeja y de una altura de 50 cm aproximadamente. En una de estas agujas, Dios, en el momento de la Creación, colocó sesenta y cuatro discos de oro, el mayor sobre la base de bronce y el resto de menor tamaño conforme se va ascendiendo. Día y noche, incesantemente, los sacerdotes del templo se turnan en el trabajo de mover los discos de una aguja a otra de acuerdo con las leyes impuestas e inmutables de Brahma, que requieren que siempre haya algún sacerdote trabajando, que no muevan más de un disco a la vez y que deben colocar cada disco en alguna de las agujas de modo que no cubra a un disco de radio menor. Cuando los sesenta y cuatro discos hayan sido transferidos de la aguja en la que Dios los colocó en el momento de la Creación a otra aguja, el templo y los brahmanes se convertirán en polvo y, junto con ellos, el mundo desaparecerá”. De ahí que a las Torres de Hanói también se le conoce como “Las torres de Brahma” o “El problema del fin del mundo”.

Notación

Se ordenarán tres varillas alineadas de izquierda a derecha y serán marcadas con letras mayúsculas A, B y C, el origen será A y el destino C y la varilla auxiliar B. Así mismo, los discos serán ordenados según el tamaño de su radio, estando el mayor en la base de la torre, para que se numeren de 1 a n, empezando por el más pequeño. Por ejemplo para ocho discos tenemos:


Reglas

El juego consiste en pasar todos los discos de la varilla A (origen) a la varilla C (destino), para lograrlo se deberá usar la varilla B (auxiliar). Para realizar este objetivo, es necesario seguir tres simples reglas:

- Sólo se puede mover un disco cada vez.
- Un disco de mayor tamaño no puede descansar sobre uno más pequeño que él mismo.
- Sólo se puede desplazar el disco que se encuentra arriba de cada varilla.

Solución

El juego se complica a medida que se agregan discos (el número de movimientos para resolver el problema crece exponencialmente conforme aumenta el número de discos), es así que para 3 discos utilizaremos primero la varilla C como auxiliar para colocar los dos primeros discos en B (movimientos 1, 2 y 3), luego llevaremos el tercer disco a C (movimiento 4), para finalmente usar la varilla A como auxiliar y llevar los dos discos que faltan a la varilla C (movimientos 5, 6 y 7). En total 7 movimientos.


Siguiendo la misma metodología el número de movimientos necesario para pasar 4 discos de mayor a menor diámetro de una varilla a otra sería: Total movimientos= 15.
De los resultados expuestos se puede deducir que el número de movimientos sigue la secuencia 1, 3, 7, 15,… para 1, 2, 3 y 4,… discos, y además se precisa colocar en la varilla de apoyo o auxiliar 0, 1, 2, 3,… discos respectivamente.

Se trata, pues, de un proceso iterativo para el que se puede establecer la siguiente regla: “En general, para mover ‘n’ discos de A a C son necesarios mínimamente 2ⁿ – 1 movimientos o también el número de movimientos necesarios para una cantidad de discos determinada es el doble de la cantidad anterior más uno”. En consecuencia, la función recursiva que nos da la expresión del número de movimientos del problema de las Torres de Hanói es:


A continuación se muestra en la tabla, la progresión geométrica del número de movimientos mínimos requeridos para resolver las torres de Hanói según la cantidad de discos, así como la comparación con el sistema binario y la notación del desplazamiento:


Algoritmo recursivo

Este problema se suele plantear a menudo en programación, especialmente para explicar la recursividad. Si numeramos los discos desde 1 hasta n, si llamamos origen a la primera pila de discos, destino a la tercera y auxiliar a la intermedia, y si a la función la denomináramos Hanói, con origen, auxiliar y destino como parámetros, el algoritmo de la función sería el siguiente:


Solución iterativa

Para obtener la solución más corta, es necesario mover el disco más pequeño en todos los pasos impares, mientras que en los pasos pares sólo existe un movimiento posible que no lo incluye. El problema se reduce a decidir en cada paso impar a cuál de las dos pilas posibles se desplazará el disco pequeño. El algoritmo en cuestión depende del número de discos del problema:
- Si inicialmente se tiene un número impar de discos, el primer movimiento debe ser colocar el disco más pequeño en la pila destino, y en cada paso impar se le mueve a la siguiente pila a su izquierda (o a la pila destino si está en la pila origen). La secuencia será: destino, auxiliar, origen, destino, auxiliar, origen, etc.
- Si se tiene inicialmente un número par de discos, el primer movimiento debe ser colocar el disco más pequeño en la pila auxiliar, y en cada paso impar se le mueve a la siguiente pila a su derecha (o a la pila origen si está en la pila destino). La secuencia será: auxiliar, destino, origen, auxiliar, destino, origen, etc.
Una forma equivalente de resolverlo es coloreando los discos pares de un color y los impares de otro, y se resuelve el problema añadiendo la siguiente regla: no colocar juntos dos discos de un mismo color. De esta manera, solo queda un movimiento posible (además del de volver hacia atrás).

Grafos de Hanói

Se llama grafo a un conjunto de puntos que se unen entre sí mediante líneas que siguen reglas fijadas para cada caso. Los puntos se denominan vértices y las líneas aristas que pueden estar o no orientadas. Se dice que un vértice es par si en él incide un número par de aristas. En el otro caso se dice que es impar.
Con respecto a los grafos de las Torres de Hanói, existe una conexión con el Triángulo de Sierpinski.  Mediante la teoría de grafos, el profesor Ian Stewart de The University of Warwick (Inglaterra), indica que cada serie tiene una única configuración. El grafo sigue una configuración similar a un triángulo equilátero cuyos vértices contienen varios triángulos colocados en su interior. Cada lado de un triángulo pequeño representa un movimiento del disco pequeño, cada lado de un triángulo mediano que no pertenezca a un triángulo pequeño representa un movimiento del disco segundo y cada lado del triángulo grande que no pertenezca a un triángulo menor representa los movimientos del disco grande. Este gráfico representa todos los posibles movimientos para la solución y cuando se incrementa el número de discos, el gráfico se convierte en un fractal. Cada una de sus partes reproduce el modelo del grafo completo. Por ejemplo para 3 discos se tiene el grafo:

Los códigos del grafo representan cada movimientos, tal como se muestra en el gráfico:


El camino más corto - la ruta de los monjes

Al representar los posibles movimientos en un grafo, siempre tendremos que la diagonal del costado derecho nos guiará por el mínimo número de movimientos, desde la varilla A (origen) hasta la varilla C (destino). Tenemos por ejemplo la representación del grafo para 3 discos, que resultan 2³-1=7 movimientos, guiado por la línea anaranjada desde la A (punto verde) hasta la varilla C (punto rojo).


Teniendo en cuenta la leyenda, Brahma había colocado 64 discos, el número de movimientos por la “ruta de los monjes” es igual a 2⁶⁴-1, hecha la operación resulta 18.446.744.073.709.551.615 movimientos, entonces ¿cuánto tiempo tardarán los monjes en cumplir el mandato de Brahma? Supongamos que no se equivocan y cada movimiento se realiza en un segundo, eso resultaría 584.942.417.352 años, tiempo calculado para el fin del mundo.

El camino más largo

Se puede elegir un camino que recorra todas las situaciones posibles del juego y, por tanto, todos los puntos y códigos posibles. Para encontrar dicho camino debemos recorrer todo el grafo sin pasar dos veces por el mismo vértice y se tendrá 3ⁿ - 1 movimientos.
La forma de encontrar el camino más largo en este grafo es recurrente y se puede encontrar de manera sencilla si recorremos los siguientes pasos:
i) Si n es par recorremos el primer triángulo pequeño en sentido horario. Si n es impar lo recorremos en sentido anti horario.
ii) Pasamos al único triángulo pequeño accesible desde el fin del recorrido anterior y lo recorremos en el sentido contrario al anterior.
iii) Repetimos el paso ii tantas veces como sea necesario hasta llegar a la última posición.
La representación para tres discos se tiene 3ᶟ - 1 = 26 movimientos posibles, como se muestra en el grafo, guiado por la línea anaranjada:



Grafos Hanói según el número de discos:
En programación

En la informática y la introducción a la teoría de algoritmos el juego de las torres de Hanói, se emplea como ejemplo de recursividad por excelencia. Un ejemplo en el lenguaje C es:

#include <stdio.h>
#include <conio.h>
void hanoi(int n,int com, int aux, int fin);
void main(void){
clrscr();
char com=’A’;
char aux=’B’;
char fin=’C’;
int n;
printf(“\número de discos: “);
scanf(“%d”,&n);
fflush(stdin);
printf(“\n\nLos movimientos a realizar son: \n”);
hanoi(n,com,aux,fin);
}
void hanoi(int n,int com, int aux, int fin){
if(n==1){
printf(“%c->%c”,com,fin);
}
else{
hanoi(n-1,com,fin,aux);
printf(“\n%c->%c\n”,com,fin);
hanoi(n-1,aux,com,fin);
}

En otros lenguajes...

El juego:


Fuentes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.

PIERRE-SIMON LAPLACE



Pierre-Simon Laplace (Beaumont-en-Auge, Normandía, Francia, 28 de marzo de 1749 - París, 5 de marzo de 1827) fue un matemático francés nacido de padres granjeros, cursó sus estudios primarios en una escuela local benedictina pues su padre quería que fuera sacerdote. Estudió en la universidad de Caen donde por su habilidad matemática, impresionó a D’Alembert, recomendándolo en 1767 para  un puesto de profesor en la École Militaire de París, en la escuela tuvo entre sus discípulos a Napoleón Bonaparte. En 1773, ingresó en la Academia de las Ciencias de París y años después dio clases en el Cuerpo Real de Artillería. En 1788 se casó con la Marie-Charlotte de Courty de Romanges, 20 años más joven que él, y con quien tuvo dos hijos, Sophie-Suzanne y Charles-Émile.

Durante la Revolución Francesa, ayudó a establecer el Sistema Métrico. Enseñó cálculo en la Escuela Normal y llegó a ser miembro del Instituto Francés en 1795. Bajo el mandato de Bonaparte fue miembro del Senado, y después Canciller, recibió la Legión de Honor en 1805.

Entre 1771 y 1789 desarrolló la mayor parte de su trabajo sobre astronomía, particularmente su estudio sobre las desigualdades planetarias, seguido por algunos escritos sobre cálculo integral y ecuaciones diferenciales en derivadas parciales. Destaca entre su producción del período 1784-1787 la determinación de la atracción de un esferoide sobre una partícula situada en su exterior, para cuya determinación introduciría el análisis de armónicos o coeficientes de Laplace y el concepto de potencial.

En 1796 publicó su Exposition du système du monde (Exposición del sistema del mundo), en el que ofreció una versión divulgativa de las leyes de Newton y una exposición del sistema solar. Sus resultados analíticos sobre la mecánica estelar se publicaron en los cinco volúmenes del Traité de mécanique céleste (Tratado de mecánica celeste, 1799-1825). En los dos primeros volúmenes describió métodos para el cálculo del movimiento de los planetas y sus satélites, y determinó sus trayectorias. El tercero contiene la aplicación de estos métodos y muchas tablas astronómicas. En 1814, Laplace publicó un ensayo sobre probabilidades orientado al lector profano, que le serviría de base para la segunda introducción de su Théorie analytique des probabilités (Teoría analítica de las probabilidades, 1812), donde incluyó una exposición del método de los mínimos cuadrados, base de toda la teoría de los errores.

Laplace creía fuertemente en el determinismo causal, tal como puede apreciarse en su siguiente cita: “Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro, así como el pasado, estarían frente a sus ojos.”

Aunque intervino en política en tiempos de Napoleón, se pasó al bando de Luis XVIII, quien lo nombró Marqués en 1817 después de la restauración de los Borbones. En sus últimos años vivió en Arcueil, donde ayudó a fundar la Sociedad de Arcueil, potenciando la investigación de los jóvenes científicos. Trabajó incansablemente y murió a los 77años.

Principales aportaciones a las matemáticas:

En astronomía:
- Demostró la estabilidad del sistema solar.
- Describió el movimiento de los centros de gravedad de los cuerpos del sistema solar mediante ecuaciones diferenciales y sus soluciones.
- Aplicó la mecánica al estudio de los planetas.
- Estudió la figura de la tierra a partir de los datos obtenidos en distintas observaciones y utilizó la teoría de errores a los resultados que obtuvo.
- Estudió cómo los planetas eran perturbados por sus satélites.
- Descubrió la invariabilidad de los principales movimientos de los planetas.
-Probó que las excentricidades y las inclinaciones de las órbitas planetarias permanecían constantes y se autocorregían.
- Presentó la teoría nebular (el sistema solar se formó como concentración de una nube de gases) cuya base matemática es incorrecta, pero que se sigue admitiendo.

En probabilidades:
- Dio una definición de probabilidad y la llamada posteriormente regla de Bayes.
- Encontró métodos para calcular la probabilidad de sucesos compuestos conocidas las probabilidades de sus componentes simples.
- En una de sus publicaciones apareció la ley de Laplace y que asigna probabilidades a sucesos equiprobables.
- Aplicó la probabilidad a la mortalidad, la esperanza de vida, la duración de los matrimonios, a los sucesos legales, a los errores en las observaciones, la determinación de las masas de Júpiter, Saturno y Urano, métodos de triangulación y problemas de geodesia.

En matemáticas:
- Ideó la que se conoce como "ecuación de Laplace" estudiando la atracción gravitatoria de un esferoide sobre un objeto externo.
- En uno de sus libros introdujo la famosa "transformada de Laplace", muy útil en la teoría de ecuaciones diferenciales.
- Encontró métodos de resolución de ecuaciones, de desarrollo de determinantes y de aproximación de integrales definidas.
- Introduce el uso de la función potencial en análisis matemático, así como las funciones llamadas armónicos esféricos que ya habían sido estudiadas por Legendre.

En física:
- Estudió la teoría de las mareas.
- Participó como miembro del comité en la elaboración del Sistema Métrico Decimal.
- Contribuyó al estudio de la mecánica, afirmando que la explicación de cualquier fenómeno natural se basa en el estudio de las fuerzas que actúan localmente entre las moléculas.
- Estudió las condiciones de equilibrio de una masa fluida en rotación.
- Estudió la presión y la densidad, la refracción astronómica, la presión barométrica y la transmisión de gravedad.
- Contribuyó al estudio de la electricidad, termología y magnetismo con técnicas matemáticas.

En química:
- Junto a Lavoisier estudió el calor específico y la combustión de distintas sustancias, estableciendo los cimientos de la termodinámica y diseñando el calorímetro de hielo.
- Estableció la fórmula de las transformaciones adiabáticas de un gas.

Fuentes: 1, 2, 3, 4, 5.

INVENTARIO DE PERSONALIDAD EYSENCK FORMA B – PARA ADULTOS

El Inventario de Personalidad de Eysenck para evaluar el temperamento de la persona, fue creado en 1964 por el psicólogo factorialista Hans Jürgen Eysenck, quién se especializó en el estudio de la personalidad, aunque era un conductista que consideraba que los hábitos aprendidos eran de gran importancia, consideró que las diferencias en la personalidad se desarrollan a partir de la herencia genética. Por lo tanto, estuvo fundamentalmente interesado en lo que se suele llamar temperamento. El temperamento es ese aspecto de nuestra personalidad que está basado en la genética, innato, desde nuestro nacimiento o incluso antes. Esto no significa que la teoría del temperamento diga que no contemos con otros aspectos de nuestra personalidad que son aprendidos; es sólo que Eysenck se centró en lo "natural" y dejó la "crianza" para que la estudiaran otros teóricos.

CARACTERÍSTICAS:

- Nombre: Inventario de Personalidad Eysenck Forma B – para Adultos (Eysenck's Personality Inventory (EPI) form B)
- Autor: Hans Jürgen Eysenck. (Berlin, 4 de marzo de 1916 - Londres, 4 de septiembre de 1997)
- Procedencia: Universidad de Londres, Inglaterra
- Aparición: 1964
- Variables de estudio: temperamento, dimensiones de la personalidad: introversión- extroversión (E) y neurotismo (estabilidad- inestabilidad) (N).
- Tipo de ítems: verbal - escrita de respuestas dicotómicas (Si - No)
- Número de ítems: 57
- Forma de Aplicación: Individual / Colectiva
- Administración: Sujetos a partir de los 16 años
- Duración: en promedio 15 minutos
- Utilidad: educación, clínica, consulta psicológica
- Estructura del Inventario de Personalidad: consta de 57 ítems intercalados sin ningún orden especial, divididos del siguiente modo:


- Dimensiones:

1. Dimensión Introversión – Extroversión “E”. Está ligada a la mayor o menor facilidad para el condicionamiento de las personas, es un rasgo genotipo. Algunas personas, las introvertidas requieren pocas exposiciones a una situación para establecer un condicionamiento firme, los sujetos introvertidos son tranquilos, se aíslan, prefieren observar, son reservados, serios y ordenados, además son pesimistas. Otras personas requieren una exposición mayor, son las extrovertidas, los sujetos extrovertidos son aquellos que gustan de las fiestas, amigos, no les gusta leer o estudiar solos, son despreocupados, bromistas, optimistas, gustan ser divertidos y reir.

2. Dimensión  Neuroticismo (Estabilidad - Inestabilidad) “N”.  Está ligada a la excitabilidad del sistema nervioso autónomo, que moviliza trastornos cardiovasculares, taquicardias, incremento de presión sanguínea, vaso-constricciones, vaso-dilataciones, trastornos respiratorios, jadeos, secreciones gástricas, híper motilidad intestinal, sudoración, etc. Una alta tasa de neuroticismo (inestabilidad), indica una emotividad muy intensa y tono elevado, son personas generalmente tensas, ansiosas, inseguras, tímidas, con fuertes bloqueos de conducta, respuestas inadecuadas e interrupciones emocionales desordenadas.

3. Dimensión Sinceridad (escala de mentiras) “L”. Permite conocer el grado de sinceridad del sujeto en  la situación de la prueba. Está distribuido de manera estructural y sistemática, un puntaje mayor de cuatro (4) en la escala, anula los resultados de la prueba, pudiendo inferir la presencia de rasgos tendientes a ocultar u ocultarse la autoimagen real. El sujeto no es objetivo en la autoevaluación de sus rasgos y tampoco le gusta mantenerse tal cual es.

- Puntuación: 1 punto por cada ítem contestado de la siguiente manera:


- Valoración.
Según la combinación de los puntajes obtenidos en las escalas de extroversión y neuroticismo se tendrá un diagnóstico tipológico según 4 cuadrantes correspondientes a los tipos temperamentales: Melancólico, Colérico, Sanguíneo y Flemático, estos asociados a una lista de adjetivos que los califican y caracterizan.


Melancólico (Introvertido - Inestable): Son sujetos de sistema nervioso débil, especialmente de los procesos inhibitorios, tienden a ser caprichosos, ansiosos, rígidos, soberbios, pesimistas, reservados, insociables, tranquilos y ensimismados. Una tasa muy elevada, determina la personalidad distímica con tendencia a las fobias y obsesiones, sus condicionamientos emocionales  son muy rígidos y estables.
Colérico  (Extrovertido - Inestable): Sus procesos neurodinámicos son muy fuertes, pero hay desequilibrio entre inhibición y excitación: son personas sensibles, intranquilas, agresivas, excitables, inconstantes, impulsivas, optimistas y activas, tienen dificultad para dormir pero mucha facilidad para despertarse. Una alta tasa de extroversión y neurotismo, define a la persona histeropática (inmadurez sin control emocional) los coléricos son de respuestas enérgicas y rápidas.
Flemático (Introvertido - estable): Sus procesos neurodinámicos son fuertes, equilibrados y lentos, son personas pacíficas, cuidadosas y tercas, pasivas, controladas y formales, uniformes, calmadas, se fijan a una rutina y hábitos de vida bien estructurados, de ánimo estabilizado, grandemente productivo, reflexivo capaz de volver a sus objetivos, a pesar de las dificultades que se le presentan, vuelve a reestructurar  este aspecto, una alta tasa de introversión puede determinar cierta pereza y desapego al ambiente.
Sanguíneo: (Extrovertido - Estable): Sus procesos neurodinámicos son fuertes, equilibrados y de movilidad rápida, son personas sociales, discordantes, locuaces, reactivas, vivaces despreocupadas, tienden a ser líderes de gran productividad, buena capacidad de trabajo, facilidad para adecuarse a situaciones nuevas, una alta tasa de dimensión extrovertida puede determinar el desperdigamiento (diseminación) y desorden de la actividad.

- Grados temperamentales: tabla de clasificación Eysenck.


- Test:


- Test en línea…

- Más información en: 1, 2, 3, 4.

VARIANZA Y DESVIACION ESTANDAR



Varianza

La varianza es una medida de dispersión relativa a algún punto de referencia. Ese punto de referencia es la media aritmética de la distribución. Más específicamente, la varianza es una medida de que tan cerca, o que tan lejos están los diferentes valores de su propia media aritmética. Cuando más lejos están las Xi de su propia media aritmética, mayor es la varianza; cuando más cerca estén las Xi a su media menos es la varianza. Dado un conjunto de observaciones, tales como X1, X2, …, Xn, la varianza denotada usualmente por la letra minúscula griega σ (sigma) elevada al cuadrado (σ²)y en otros casos S².

La varianza mide qué tan estrecha o ampliamente dispersos están los números alrededor del promedio. De esta manera, una varianza grande significa que los datos están más alejados del promedio, y una varianza más reducida significa que están agrupados más cerca alrededor del promedio. La varianza es el promedio de las diferencias cuadradas (o desviaciones) de cada número con respecto al promedio.

Desviación estándar

La desviación estándar (σ) mide cuánto se separan los datos. Es una medida de la cantidad típica en la que los valores del conjunto de datos difieren de la media. Es la medida de dispersión más utilizada, se le llama también desviación típica. La desviación estándar siempre se calcula con respecto a la media y es un mínimo cuando se estima con respecto a este valor.
Se calcula de forma sencilla, si se conoce la varianza, por cuanto que es la raíz cuadrada positiva de esta. A la desviación se le representa por la letra minúscula griega "sigma" (σ), o por la letra S

La desviación estándar es una especie de índice de variabilidad, porque es proporcional a la dispersión de los datos. Entre más diversa sea la distribución (es decir, cuando los datos están dispersos más ampliamente), más grande será la desviación estándar, mientras que entre menos diversa sea la distribución (es decir, cuando los datos están agrupados o muy juntos), más pequeña será la desviación estándar. La desviación estándar es muy útil para entender el grado de dispersión de una variable. Para la mayoría de los datos distribuidos normalmente, generalmente casi todos los valores estarán dentro de tres desviaciones estándar del promedio, a esto algunas veces se le conoce como la regla del 68-95-99.7, cerca del 68.27% de los valores están dentro de 1 desviación estándar del promedio (la media) De manera similar, aproximadamente el 95.45% de los valores se encuentran dentro de 2 desviaciones estándar de la media. Casi todos (99.73%) los valores están dentro de 3 desviaciones estándar de la media.

En la  siguiente tabla se pueden identificar la definición de varianza y desviación estándar para poblaciones y muestras:




Ejemplos: 1, 2, 3, 4.

Fuentes: 1, 2, 3, 4, 5.

MINITAB








Minitab es un programa de computadora diseñado para ejecutar funciones estadísticas básicas y avanzadas. Combina lo amigable del uso de Microsoft Excel con la capacidad de ejecución de análisis estadísticos. Minitab es frecuentemente usado con la implantación la metodología de mejora de procesos Seis Sigma.
Minitab 17

ESTADÍSTICA APLICADA A LOS NEGOCIOS Y LA ECONOMÍA (TERCERA EDICIÓN) - ALLEN L. WEBSTER

ESTADÍSTICA MATEMÁTICA CON APLICACIONES (SÉPTIMA EDICIÓN) - WACKERLY, MENDENHALL, SCHEAFFER


ESTADÍSTICA PARA BIOLOGÍA Y CIENCIAS DE LA SALUD (TERCERA EDICIÓN) - J. SUSAN MILTON


INSTRUMENTOS DE EVALUACIÓN PSICOLÓGICA - FELICIA MIRIAM GONZÁLEZ


METODOLOGÍA DE LA INVESTIGACIÓN (QUINTA EDICIÓN) - HERNÁNDEZ, FERNÁNDEZ Y BATISTA


GLOSARIO ESTADÍSTICO

COHORTE

Cohorte es cualquier grupo humano definido por haber experimentado cierto acontecimiento en un mismo periodo de tiempo. El acontecimiento puede ser de muy diverso tipo, como el haberse casado, haber seguido un curso docente, haber publicado un libro, etc. (cohortes de casamientos, cohorte escolar, cohorte literaria, etc.) Un caso específico de cohorte es la de nacimientos, es decir, la que constituyen las personas nacidas durante un mismo intervalo de tiempo (generalmente un año). A este tipo de cohorte se la llama, en demografía, "generación". Sin embargo, en muchas otras disciplinas se confunden ambos términos, y se habla de la "generación del 27", o de la "generación X" cuando, en estricta lógica demográfica, debería hablarse de cohortes. También es frecuente hablar de generaciones para referirse a los ascendientes y descendientes familiares dentro de una misma línea de filiación. Aunque este es, de hecho, el uso más antiguo y extendido, resulta menos unívoco y peor definido que el uso demográfico. (Fuente)

En epidemiología, el cohorte es un Conjunto de individuos de una población que han vivido una misma experiencia o que presentan un conjunto de criterios comunes y que forman parte de una observación epidemiológica. Los estudios de cohorte se inician con la identificación de individuos con y sin el factor que se va a investigar (un factor de riesgo), posteriormente se realiza un seguimiento de los individuos y se estima cómo se distribuye la enfermedad entre los que poseen y no poseen dicha característica. Los estudios de cohortes pueden ser prospectivos o retrospectivos. (Fuente)


DISPERSIÓN

Es la distribución estadística de un conjunto de valores, mide cuán lejos están éstos a su media aritmética. Así cuanto menos disperso es el conjunto más cerca del valor medio están sus valores. Para reconocer cómo están distribuidos los datos se utilizan las medidas de dispersión, entre las que se encuentran el rango o recorrido estadístico que es la diferencia entre el valor máximo y el mínimo en un grupo de números aleatorios, y que se obtiene dividiendo el número mayor con el menor de los datos estadísticos. En segundo lugar está el medio rango o rango medio que es la media del mayor y menor valor, o la tercera parte entre el dato de menor valor y el dato de mayor valor. En tercero, la varianza que mide la propagación de los valores respecto al valor central. Debido a que esta última no se comprende muchas veces, se define otra medida denominada desviación típica o desviación. (Fuente)


MEDIDAS DE DISPERSIÓN

Las medias de tendencia central o posición nos indican donde se sitúa un dato dentro de una distribución de datos. Las medidas de dispersión, variabilidad o variación nos indican si esos datos están próximos entre sí o sí están dispersos, es decir, nos indican cuán esparcidos se encuentran los datos. Estas medidas de dispersión nos permiten apreciar la distancia que existe entre los datos a un cierto valor central e identificar la concentración de los mismos en un cierto sector de la distribución, es decir, permiten estimar cuán dispersas están dos o más distribuciones de datos. Estas medidas permiten evaluar la confiabilidad del valor del dato central de un conjunto de datos, siendo la media aritmética el dato central más utilizado. Cuando existe una dispersión pequeña se dice que los datos están dispersos o acumulados cercanamente respecto a un valor central, en este caso el dato central es un valor muy representativo. En el caso que la dispersión sea grande el valor central no es muy confiable. Cuando una distribución de datos tiene poca dispersión toma el nombre de distribución homogénea y si su dispersión es alta se llama heterogénea. (Fuente)

Las medidas de dispersión, también llamadas medidas de variabilidad, muestran la variabilidad de una distribución, indicando por medio de un número si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, y cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos. Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (desviación media) y otra es tomando las desviaciones al cuadrado (varianza). (Fuente)


HOMOGENEIDAD

La noción de homogeneidad define a la igualdad mayor o menor de los valores de una variable o de una combinación de características en un conjunto geográfico. Los parámetros de dispersión estadística, en particular la varianza, miden su inversa, la heterogeneidad. La región homogénea es un tipo de región que presenta mayor semejanza entre las unidades que la componen que con las unidades que pertenecen a otras regiones. Criterios muy diferentes y desigualmente complejos pueden utilizarse para localizar regiones homogéneas. Los ejemplos más frecuentes corresponden a una identidad de condiciones físicas fuertes (zonas climáticas, regiones botánicas), a similitudes sociales desarrolladas al abrigo de fronteras territoriales (regiones históricas, regiones culturales), o a combinaciones de estos dos tipos de procesos (homogeneidad del paisaje). La homogeneidad se define siempre en relación con un cierto nivel de resolución o de generalización de las unidades geográficas, y sólo tiene en cuenta las variaciones observadas a una cierta escala, y según un número limitado de criterios. (Fuente)

Homogéneo significa, en el contexto de la estratificación, que no hay mucha variabilidad. Los estratos funcionan mejor cuanto más homogéneos son cada uno de ellos respecto a la característica a medir. Por ejemplo, si se estudia la estatura de una población, es bueno distinguir entre los estratos mujeres y hombres porque se espera que, dentro de ellos, haya menos variabilidad, es decir, sean menos heterogéneos. Dicho de otro modo, no hay tantas diferencias entre unas estaturas y otras dentro del estrato que en la población total. (Fuente)


PONDERACIÓN

La ponderación es una medida de tendencia central que es conveniente cuando un conjunto de datos tiene una valor correspondiente con respecto a los demás datos, esto se obtiene multiplicando cada uno de los datos por su ponderación o peso para luego poderlo sumar, logrando así una suma equilibrada, después que se realiza este procedimiento se divide con el resultado que dio la suma de los pesos dando así el resultado de la media ponderada.
Los sistema de ponderación de las calificaciones de los centros estudiantiles se basan en el parámetro de ponderación para así poder asignarles un peso particular a cada uno de los exámenes que influye en la calificación media, estos resultados se suman y se divide para así poder tener todas las notas. El vocablo ponderación deriva del latín “ponderatĭo, -ōnis” que en la real academia lo definen como “la atención, apreciación, peso y cuidado con lo que se dice o se hace algo”, Esto quiere decir que la ponderación es algo usual que utilizan en los mercados bancarios, financiero, cotizables, crediticios, debido a que se habla de la ponderación de las empresas o de las acciones con respecto al índice que se establece como una comparación con el volumen negociado, ya sea positivo o negativo de acuerdo a como se exprese. La ponderación también ayuda para calcular o evaluar algo teniendo como referencia distintos tipos de parámetros de acuerdo a aquellos que se vaya a ponderar que no solo se le asigna un valor o aprecio a nivel moral o subjetivo que puede a desencadenar un valor monetario y económico. (Fuente)


VEROSIMILITUD

Es una función de los parámetros de un modelo estadístico que permite realizar inferencias acerca de su valor a partir de un conjunto de observaciones. La noción de verosimilitud procede del término inglés likelihood que, desde sus orígenes estuvo vinculado al concepto de probabilidad, probability, aunque denotando un vínculo de causalidad más débil. (Fuente)

Cuando la población es discreta, la función de verosimilitud es la probabilidad de que ocurra la realización que efectivamente ha ocurrido. Cuando la población es continua, la función de verosimilitud es una densidad y no una probabilidad. De hecho, la probabilidad de que ocurra una realización concreta de la muestra es siempre igual a cero, sea cual sea el valor del parámetro. Pero la densidad de la muestra para una realización representa la probabilidad alrededor de esa realización, por lo que básicamente los razonamientos anteriores, que han sido desarrollados para variables discretas, se mantienen aunque la población sea continua. (Fuente)

AMOR Y ESTADÍSTICA

Amor y Estadística (A veces para encontrar el amor hay que echar cuentas), es un cortometraje español que trata sobre las probabilidades en la búsqueda de la pareja ideal. Fue finalista de la XI edición del festival Jameson Notodofilmfest y del Certamen de cortometrajes Angelika, escrito y dirigido por Óscar Arenas y Carlos Caro, con la interpretación de los actores Diego Villena, Eva Flórez y Vicente Esplugues.


ROMANCE DE LA DERIVADA ENÉSIMA Y EL ARCOTANGENTE

Veraneaba una derivada enésima en un pequeño chalet situado en la recta del infinito del plano de Gauss, cuando conoció a un arcotangente simpatiquísimo y de espléndida representación gráfica, que además pertenecía a una de las mejores familias trigonométricas. Enseguida notaron que tenían propiedades comunes.
Un día, en casa de una parábola que había ido a pasar allí una temporada con sus ramas alejadas, se encontraron en un punto aislado de ambiente muy íntimo. Se dieron cuenta de que convergían hacia límites cuya diferencia era tan pequeña como se quisiera. Había nacido un romance. Acaramelados en un entorno de radio épsilon, se dijeron mil teoremas de amor.
Cuando el verano pasó, y las parábolas habían vuelto al origen, la derivada y el arcotangente eran novios. Entonces empezaron los largos paseos por las asíntotas siempre unidos por un punto común, los interminables desarrollos en serie bajo los conoides llorones del lago, las innumerables sesiones de proyección ortogonal.
Hasta fueron al circo, donde vieron a una troupe de funciones logarítmicas dar saltos infinitos en sus discontinuidades. En fin, lo que eternamente hacían los novios.
Durante un baile organizado por unas cartesianas, primas del arcotangente, la pareja pudo tener el mismo radio de curvatura en varios puntos. Las series melódicas eran de ritmos uniformemente crecientes y la pareja giraba entrelazada alrededor de un mismo punto doble. Del amor había nacido la pasión. Enamorados locamente, sus gráficas coincidían en más y más puntos.
Con el beneficio de las ventas de unas fincas que tenía en el campo complejo, el arcotangente compro un recinto cerrado en el plano de Riemann. En la decoración se gastó hasta el último infinitésimo. Adorno las paredes con unas tablas de potencias de "e" preciosas, puso varios cuartos de divisiones del termino independiente que costaron una burrada.
Empapeló las habitaciones con las gráficas de las funciones más conocidas, y puso varios paraboloides de revolución chinos de los que surgían desarrollos tangenciales en flor. Y Bernouilli le presto su lemniscata para adornar su salón durante los primeros días. Cuando todo estuvo preparado, el arcotangente se trasladó al punto impropio y contemplo satisfecho su dominio de existencia.
Varios días después fue en busca de la derivada de orden n y cuando llevaban un rato charlando de variables arbitrarias, le espeto, sin más:
- ¿Por qué no vamos a tomar unos neperianos a mi apartamento? De paso lo conocerás, ha quedado monísimo.
Ella, que le quedaba muy poco para anularse, tras una breve discusión del resultado, aceptó.
El novio le enseñó su dominio y quedó integrada. Los neperianos y una música armónica simple, hicieron que entre sus puntos existiera una correspondencia unívoca. Unidos así, miraron al espacio euclídeo. Los astroides rutilaban en la bóveda de Viviany… Eran felices!
- ¿No sientes calor? - dijo ella
- Yo sí. ¿Y tú?
- Yo también.
- Ponte en forma canónica, estarás más cómoda.
Entonces él le fue quitando constantes. Después de artificiosas operaciones la puso en paramétricas racionales...
- ¿Qué haces? Me da vergüenza... - dijo ella
- Te amo, yo estoy inverso por ti...! Déjame besarte la ordenada en el origen...! No seas cruel...! ven...! Dividamos por un momento la nomenclatura ordinaria y tendamos juntos hacia el infinito...
El la acarició sus máximos y sus mínimos y ella se sintió descomponer en fracciones simples.
Al cabo de algún tiempo la derivada enésima perdió su periodicidad. Posteriores análisis algebraicos demostraron que su variable había quedado incrementada y su matriz era distinta de cero.
Ella le confesó a él, saliéndole los colores:
- Voy a ser primitiva de otra función.
Él respondió:
- Podríamos eliminar el parámetro elevando al cuadrado y restando.
- ¡Eso es que ya no me quieres!
- No seas irracional, claro que te quiero. Nuestras ecuaciones formarán una superficie cerrada, confía en mí.
La boda se preparó en un tiempo diferencial de t, para no dar que hablar en el círculo de los 9 puntos. Los padrinos fueron el padre de la novia, un polinomio lineal de exponente entero, y la madre del novio, una asiroide de noble asíntota. La novia lucía coordenadas cilíndricas de Satung y velo de puntos imaginarios. Oficio la ceremonia Cayley, auxiliado por Pascal y el nuncio S.S. monseñor Ricatti.
Hoy día el arcotangente tiene un buen puesto en una fábrica de series de Fourier, y ella cuida en casa de 5 lindos términos de menor grado, producto cartesiano de su amor.

Moraleja: En el amor no hay regla de Cramer que valga.

Autor: La Jaca Jacobiana - Revista E.T.S.I.I. Madrid 1990.








“La cosa más incomprensible del universo es que al final resulta comprensible.” (Einstein)