11 de noviembre de 2018
George Boole, el ‘arquitecto’ de la revolución digital
La mayoría de los circuitos electrónicos, y de los sistemas de computación en general, tienen su origen en una función lógica. Pero esta puede ser bastante larga y compleja. Por eso George Boole (1815-1864) ideó un método para simplificar esa función lógica lo máximo posible, a través de ciertas reglas básicas o propiedades. Quizás este sistema encuentra hoy en día uno de sus máximos exponentes los buscadores de Internet como Google, que hoy le reconoce el mérito a Boole con un doodle que conmemora el 200 aniversario de su nacimiento.
A mediados del siglo XIX, Boole desarrolló en su libro “An Investigation of the Laws of Thought” (1854), la idea de que las proposiciones lógicas podían ser tratadas mediante herramientas matemáticas. Estas proposiciones lógicas podían tomar únicamente dos valores del tipo Verdadero/Falso o Sí/No. Estos valores bivalentes y opuestos podían ser representados por números binarios de un dígito (bits), por lo cual el álgebra booleana se puede entender cómo el álgebra del sistema binario.
Un sistema lógico de futuro imprevisto
Él mismo resumió su trabajo en esta frase: «Las interpretaciones respectivas de los símbolos 0 y 1 en el sistema de lógica son Nada y Universo». Podría interpretarse como un anticipo de su trascendencia. Sin embargo, contrariamente a lo que se puede pensar, el álgebra de Boole no pareció tener ninguna aplicación práctica en un primer momento y sólo se le encontró un sentido, bastante abstracto, en el campo de la lógica matemática.
Fue setenta años después de su muerte, en 1938, cuando el ingeniero electrónico y matemático estadounidense Claude E. Shannon (1916 – 2001) encontró en el trabajo de Boole una base para los mecanismos y procesos en el mundo real, demostrando cómo el álgebra booleana podía optimizar el diseño de los sistemas electromecánicos de relés, utilizados por aquel entonces en conmutadores de enrutamiento de teléfono.
Además de Shannon, el ruso Victor Shestakov (1907-1987) propuso una teoría de los interruptores eléctricos basados en la lógica booleana en 1935, aunque menos conocida en un principio: su publicación se hizo años después, en 1941 y en ruso. De esta manera, el álgebra de Boole se convirtió en el fundamento de la práctica de circuitos digitales de diseño, y George Boole (a través de Shannon y Shestakov) en el arquitecto que puso los cimientos teóricos para la revolución digital.
Tomado de: Open Mind
6 de noviembre de 2015
Georges Boole: l matemático que inventó la forma en que hoy busca Google
Cada vez que haces una simple búsqueda en Google, o en cualquier otro buscador informático, entre los mecanismos de programación que hacen posible que encuentres lo que buscas hay unos principios de lógica que fueron concebidos hace más de 150 años.
Fue el matemático inglés George Boole quien inventó un sistema de álgebra que es clave para la programación de hoy en día.
La álgebra de Boole, o álgebra booleana, es una estructura algebraica que esquematiza las operaciones lógicas, y está presente en todas partes a nuestro alrededor: desde la programación detrás de los videojuegos a los que jugamos, hasta el código de las aplicaciones que usamos y los programas de las computadoras que utilizamos.
Se puede decir que los ladrillos con los que se construye la programación, que son los comandos o instrucciones que se le da a un sistema informático, están todos basados en la lógica de Boole.
"Si eres un programador no te puedes escapar del término booleano", dice Michael Dunn de Gospelweare, una compañía desarrolladora de iOS y Android.
AND, OR y NOT
Durante los últimos 17 años de su vida George Boole estableció el concepto de lógica algebraica en matemáticas y simplificó el mundo en enunciados básicos que tenían por respuesta Sí o No, utilizando para ello aritmética binaria.
"Las interpretaciones respectivas de los símbolos 0 y 1 en el sistema de lógica son Nada y Universo", dijo.
Este concepto, que introdujo en 1847 y expandió siete años más tarde, es lo que está presente en los programas informáticos actuales.
"Hay un enunciado booleano casi cada dos líneas de un programa informático", dice Dunn.
"No es algo sobre lo que reflexiones, porque es una parte totalmente integral de la programación".
Boole utilizó el concepto de puertas lógicas, o preguntas, que exploran un enunciado.
Las puertas lógicas más básicas son, en el lenguaje original de Boole, AND, OR o NOT. Es decir, Y, O o No en español.
Después, estas tres puertas se pueden combinar para crear enunciados más complejos.
Así que cuando buscas en internet "Miley Cyrus" hay un uso implícito de la lógica booleana del comando AND para combinar las dos palabras, "Miley" y "Cyrus".
Mucho antes de Google, durante los primeros años en que se hacían búsquedas, era frecuente usar los comandos AND, OR y NOT para filtrar los resultados.
Hoy, los avances en la tecnología de búsquedas hace que muchas se puedan realizar utilizando un lenguaje más natural.
Aún así, Google todavía le permite a los usuarios escribir OR o incluir el símbolo de sustracción - para afinar los resultados.
Juventud prolífica
Boole murió hace 150 años, cuando tenía 49.En 1864 enfermó gravemente tras mojarse bajo la lluvia mientras caminaba hasta el aula donde daba clase.
Murió el 8 de diciembre de ese año de un derrame pleural o pleuresía, acumulación de agua en los pulmones.
Él mismo tenía cierta noción del impacto histórico que su sistema de lógica podría tener.
En 1851 le dijo a un amigo que la lógica booleana podría ser "la contribución más valiosa, si no la única, que he hecho o que probablemente haga a la ciencia y el motivo por el que desearía que me recuerden, si es que me van a recordar, póstumamente".
Y así fue.
Fuente:
BBC Ciencia
4 de agosto de 2014
Diagramas de Venn y diagramas de Edwards
Diagramas de Edwards
Y es entonces que aparece Anthony William Fairbank Edwards que propuso diagramas para más de tres conjuntos, proyectando el diagrama sobre una esfera.
Tres conjuntos pueden ser representados fácilmente tomando tres hemisferios en ángulos rectos (x = 0, y = 0 y z = 0).
Un cuarto conjunto puede ser representado tomando una curva similar a la juntura de una pelota de tenis que suba y baje alrededor del ecuador. Los conjuntos resultantes pueden ser proyectados de nuevo sobre el plano para mostrar diagramas de tipo engranaje, con cantidades cada vez mayores de dientes.
Edwards ideó estos diagramas mientras diseñaba la ventana acristalada en memoria de Venn que hoy adorna el comedor del Caius College.
3 conjuntos | 4 conjuntos |
5 conjuntos | 6 conjuntos |
El mapa de Karnaugh
Un mapa de Karnaugh (también conocido como tabla de Karnaugh o diagrama de Veitch, abreviado como Mapa-K o Mapa-KV) es un diagrama utilizado para la simplificación de funciones algebraicas Booleanas. El mapa de Karnaugh fue inventado en 1950 por Maurice Karnaugh, un físico y matemático de los laboratorios Bell.
Los mapas de Karnaugh reducen la necesidad de hacer cálculos extensos para la simplificación de expresiones booleanas, aprovechando la capacidad del cerebro humano para el reconocimiento de patrones y otras formas de expresión analítica, permitiendo así identificar y eliminar condiciones muy inmensas.
El mapa de Karnaugh consiste en una representación bidimensional de la tabla de verdad de la función a simplificar. Puesto que la tabla de verdad de una función de N variables posee 2N filas, el mapa K correspondiente debe poseer también 2N cuadrados. Las variables de la expresión son ordenadas en función de su peso y siguiendo el código Gray, de manera que sólo una de las variables varía entre celdas adyacentes. La transferencia de los términos de la tabla de verdad al mapa de Karnaugh se realiza de forma directa, albergando un 0 ó un 1, dependiendo del valor que toma la función en cada fila. Las tablas de Karnaugh se pueden utilizar para funciones de hasta 6 variables. Más información AQUÍ.
Fuente:
Wikipedia
2 de octubre de 2013
Algebra de Boole: Matemáticas del siglo XIX sin las que no funcionaría internet
Estamos inmersos en plena era digital, donde los aparatos electrónicos que funcionan, básicamente, a base de recoger ceros y unos, y tratarlos de forma lógica, haciendo cosas que hasta ahora solo eran posibles en los libros de ciencia ficción. Pero como para casi todo en ciencia, hay una base matemática: El álgebra de Boole.
George Boole, (2 de noviembre de 1815 - 8 de diciembre de 1864), fué primer profesor de matemáticas del entonces Queen's College, Cork en Irlanda (en la actualidad la Universidad de Cork , en la biblioteca, lectura de metro complejo teatral y el Centro de Boole para la Investigación en Informática se nombran en su honor) en 1849. Pero fué antes, en 1847 cuando escribió un pequeño folleto llamado "The Mathematical Analysis of Logic" , que completo con otro libro " The Laws of Thought" publicado en 1854.
Bases
- Cerrado. El sistema booleano se considera cerrado con respecto a un operador binario si para cada par de valores booleanos se produce un solo resultado booleano.
- Conmutativo. Se dice que un operador binario " º " es conmutativo si A º B = B º A para todos los posibles valores de A y B.
- Asociativo. Se dice que un operador binario " º " es asociativo si (A º B) º C = A º (B º C) para todos los valores booleanos A, B, y C.
- Distributivo. Dos operadores binarios " º " y " % " son distributivos si A º (B % C) = (A º B) % (A º C) para todos los valores booleanos A, B, y C.
- Identidad. Un valor booleano I se dice que es un elemento de identidad con respecto a un operador binario " º " si A º I = A.
- Inverso. Un valor booleano I es un elemento inverso con respecto a un operador booleano " º " si A º I = B, y B es diferente de A, es decir, B es el valor opuesto de A.
- - Los dos posibles valores en el sistema booleano son cero y uno, a menudo llamaremos a éstos valores respectivamente como falso y verdadero.
- - El símbolo · representa la operación lógica AND. Cuando se utilicen nombres de variables de una sola letra se eliminará el símbolo ·, por lo tanto AB representa la operación lógica AND entre las variables A y B, a esto también le llamamos el producto entre A y B.
- - El símbolo "+" representa la operación lógica OR, decimos que A+B es la operación lógica OR entre A y B, también llamada la suma de A y B.
- - El complemento lógico, negación ó NOT es un operador unitario, en éste texto utilizaremos el símbolo " ' " para denotar la negación lógica, por ejemplo, A' denota la operación lógica NOT de A.
- - Si varios operadores diferentes aparecen en una sola expresión booleana, el resultado de la expresión depende de la procedencia de los operadores, la cual es de mayor a menor, paréntesis, operador lógico NOT, operador lógico AND y operador lógico OR. Tanto el operador lógico AND como el OR son asociativos por la izquierda. Si dos operadores con la misma procedencia están adyacentes, entonces se evalúan de izquierda a derecha. El operador lógico NOT es asociativo por la derecha.
- Utilizaremos además los siguientes postulados:
- P1 El álgebra booleana es cerrada bajo las operaciones AND, OR y NOT
- P2 El elemento de identidad con respecto a · es uno y con respecto a + es cero. No existe elemento de identidad para el operador NOT
- P3 Los operadores · y + son conmutativos.
- P4 · y + son distributivos uno con respecto al otro, esto es, A· (B+C) = (A·B)+(A·C) y A+ (B·C) = (A+B) ·(A+C).
- P5 Para cada valor A existe un valor A' tal que A·A' = 0 y A+A' = 1. Éste valor es el complemento lógico de A.
- P6 · y + son ambos asociativos, ésto es, (AB) C = A (BC) y (A+B)+C = A+ (B+C).
Porqué el álgebra de Boole
Tomado de:
Enamorado de la Ciencia
15 de septiembre de 2012
Búsqueda booleana
Un buen artículo tomado de: RIA
Una búsqueda Booleana se refiere a un tipo de búsqueda en la cual puedes realizar una consulta más precisa y eficiente de información en Internet.
Este tipo de consulta no requiere escribir frases completas, sino que permite combinar palabras claves con símbolos (por ejemplo: + o – ) que substituyen las frases largas y que permiten obtener resultados mas concretos. Esta opción es tan común en el mundo de los buscadores que puede considerarse la estándar, normalmente al realizar la búsqueda utilizamos palabras que están unidas por “o/y/no”, en lugar de esto, podemos utilizar símbolos que nos ayuden a hacer mas ágil esta búsqueda:
cáncer pulmón (se considera cáncer O pulmón)
+cáncer + pulmón (es equivalente a cáncer Y pulmón)
cáncer -pulmón (se considera equivalente a cáncer NO pulmón)
cáncer tumores +pulmón (equivalente a cáncer O tumores NO pulmón)
La búsqueda booleana funciona con palabras completas a menos que se use el carácter *.
Hay varios caracteres que nos pueden ayudar con las búsquedas booleanas: + , – , * , ” , > <, ( ) .
Ejemplos:
Búsqueda | Resultado |
veterinarios | Las empresas cuya actividad incluye la palabra VETERINARIOS. |
veterinarios -otros | Las empresas cuya actividad incluye la palabra VETERINARIOS pero NO incluye la palabra OTROS. |
+veterinarios productos | Las empresas cuya actividad contiene la palabra VETERINARIOS y que, preferentemente, también incluye la palabra PRODUCTOS. |
productos corcho | Las empresas cuya actividad contiene la palabra PRODUCTOS, CORCHO o ambas. |
+productos +corcho | Las empresas cuya actividad contiene tanto a la palabra PRODUCTOS como a la palabra CORCHO. |
alimen* | Las empresas cuya actividad contiene como inicio de palabra los caracteres ALIMEN (alimentos, alimentaria, alimenticios, etc). |
“productos farmacéuticos” | Las empresas cuya actividad contiene exactamente la frase PRODUCTOS FARMACÉUTICOS. |
+productos +(+azúcar-agrícolas) | Las empresas cuya actividad contiene la palabra PRODUCTOS y la palabra AZÚCAR o AGRÍCOLAS, dando un mayor peso a la palabra AZÚCAR y un menor peso a AGRÍCOLAS. |
3 de agosto de 2010
Los inventores de los ceros y unos
Vamos a volver al colegio. Hagamos un ejercicio sencillito. Vamos a contar de cero en adelante: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10... ¡eh! ¡Quieto parao! Este último número es ya distinto: tiene dos dígitos, y los que le siguen también. Si examinamos la serie veremos que en realidad sólo tenemos diez cifras distintas. De ahí viene el nombre de este modo de hacer números: el sistema decimal. |
Las razones por las que contamos de diez en diez son sencillas. Mírese las manos y cuente. Salvo que la genética o una máquina de picar carne le hayan hecho una gracieta tendrá usted diez dedos. Por eso ha sido empleado de forma casi universal, aunque algunas culturas como la de los mayas hayan empleado un sistema de numeración vigesimal. Quizá porque iban descalzos por ahí.
En cualquier caso, no es difícil imaginar un sistema de numeración distinto. Pensemos en cómo sería un sistema octal, es decir, uno en el que hubiera sólo ocho cifras distintas. Contaríamos así: 0, 1, 2, 3, 4, 5, 6, 7, 10, 11, 12... en este caso, el 10 del sistema octal sería equivalente al 8 del decimal.
Pues bien, allá por el siglo XVII, el alemán Gottfried Leibniz publicó un artículo titulado Explicación de la Aritmética Binaria. Consistía, resumiéndolo mucho, en lo mismo que yo he hecho en el párrafo anterior pero limitándose a dos cifras: el cero y el uno, así como el estudio de las distintas operaciones aritméticas que podían hacerse con estos números. Curiosamente, unos años antes, el monje español Juan Caramuel también estudió el sistema binario, así como los que tienen las bases 3, 4, 5, 6, 7, 8, 9, 10, 12 y 60, aunque no con tanta profundidad.
Leibniz, que también inventaría el cálculo diferencial de forma independiente a Newton, se inspiró en el I Ching y el asunto del yin y el yang, y concluyó que los 64 hexagramas del famoso libro chino no son más ni menos que los números del 0 al 63 expresados en binario. Eso lo llevó a considerar este sistema numérico como una suerte de lenguaje universal que uniría a todas las naciones y razas; también a percibir en él la creación, en la que el uno era Dios y el cero el Vacío. Ser un genio no supone necesariamente tener la azotea en su sitio.
Boole, el creador del álgebra de Boole (claro)
Durante un par de siglos, aquello del sistema binario no tuvo mucho más recorrido, principalmente porque no servía para nada útil. En esto llegó un señor llamado George Boole, matemático y el principal responsable junto a De Morgan del nacimiento de la disciplina de la lógica formal, un campo que desde Aristóteles había avanzado más bien poquito.
Boole nació en 1815 en Lincolnshire, un condado rural del que salieron, entre otros, personajes como Isaac Newton o Margaret Thatcher. Era hijo de un zapatero remendón, así que a pesar de que su familia le permitió estudiar, tuvo que abandonar el colegio a los dieciséis para ayudar en casa. Dado que en su escuela no lo enseñaban, aprendió latín y griego de forma autodidacta, lo que le permitió encontrar empleo como profesor y hallar en las matemáticas su vocación.
Boole creía ya entonces que todo el pensamiento humano podía formularse en términos matemáticos, pero no pudo dedicarle tiempo a desarrollar su idea, que si no su familia se moría de hambre. Sólo cuando prosperó, abriendo su propia escuela de matemáticas, empezó a investigar y a publicar su trabajo, que le valió un puesto en la Queen’s College de Cork, Irlanda, donde se casó con la sobrina de George Everest, el de la montaña, y publicó su trabajo fundamental sobre lógica: Las leyes del pensamiento. En su obra, redujo todos los razonamientos humanos a decisiones de sí o no, o lo que es lo mismo, de uno o cero. Encontró la forma de formalizar lo que pensamos a fórmulas matemáticas y poder operar con ellas para extraer conclusiones nuevas. En definitiva, se adelantó como cien años al trabajo que harían los ordenadores y quienes los programan.
En 1864, George Boole murió de una neumonía tras caminar dos millas bajo una intensa lluvia para ir a dar una clase. Su último trabajo eran tan raro que ni los miembros de la Royal Society pudieron descifrarlo. No obstante, sus "leyes del pensamiento" fueron más o menos ignoradas por los científicos al no encontrarle una utilidad práctica. Eso no significa que no tuvieran influencia en nadie; Lewis Carroll era un gran fan suyo y buena parte de sus libros sobre Alicia están escrito con la lógica de Boole en mente, como muestra este diálogo de A través del espejo:
– Es larga – dijo el Caballero – pero es muy, muy hermosa... A todo el que me la oye cantar, o se le llenan los ojos de lágrimas...
– ¿O qué? – preguntó Alicia, al ver que el Caballero se había quedado a media frase.
– O no se le llenan.
Shannon, el santo patrón de los telecos
Claude Shannon ha hecho tantas contribuciones a la ciencia de la informática y las telecomunicaciones que vamos a empezar por la menor: buscando una palabra para los dígitos binarios inventó el bit, resultado de contraer BInarydigiT. También creó la disciplina conocida como teoría de la información, que es la base matemática que permite, entre otras cosas, que a ratos a usted le funcione el móvil. También publicó un artículo en 1949 sobre la automatización del juego del ajedrez que es la base de todos los jugadores computerizados, incluyendo al célebre Deep Blue. No obstante, su mayor contribución fue también la primera, la que puso negro sobre blanco en su tesis, comenzada en 1935 y terminada en 1937.
Nacido en un distrito rural, aunque en este caso del medio oeste norteamericano, Shannon hizo el doctorado en el Instituto Tecnológico de Massachusetts, el célebre MIT. Allí abordó el problema al que se enfrentaban los creadores de computadoras: el diseño de circuitos electrónicos que pudieran realizar funciones útiles, como pueda ser la suma de dos números. Sin ningún sustento teórico que les facilitara la vida, el problema resultaba enormemente complejo. En realidad, ya estaba casi resuelto, solo que nadie lo sabía.
Shannon se encontró por casualidad con un ejemplar de Las leyes del pensamiento y se dio cuenta rápidamente de que el libro contenía la solución a sus problemas. Bastaba con considerar que falso, o cero, era equivalente a estar apagado, o lo que es lo mismo, no tener corriente eléctrica; y verdadero, o uno, a estar encendido. A partir de ahí, construyó sobre las operaciones lógicas del álgebra de Boole (AND, OR y NOT), que podían implementarse con válvulas de vacío, y terminó su tesis mostrando que un circuito que sumara en sistema binario podía hacerse con veintiuna operaciones lógicas: doce "y", seis "o" y tres "no".
Desde entonces, la tecnología ha evolucionado mucho, primero con la invención del transistor y luego con el circuito integrado. Pero todos los ordenadores emplean las llamadas "puertas lógicas", que no son más que implementaciones de las operaciones de lógica binaria, de síes y noes, de ceros y unos. Eso sí, en un microprocesador actual puede haber varios centenares de millones.
Shannon siempre fue muy modesto, y parecía avergonzarse cuando los alumnos a los que enseñaba teoría de la información en el MIT le recordaban que la disciplina la había inventado él. En 2001, Bell Labs organizó una exposición en la que detallaba la importancia de sus contribuciones en el día a día del hombre del siglo XXI. No apareció por la inauguración y murió sólo dos semanas después, recibiendo un breve obituario en algunos periódicos. Pocos saben cuánto le debemos, a él y a sus predecesores. Gracias al trabajo teórico de Leibniz, Boole y Shannon, aunque sólo el último lo hiciera consciente de su objetivo, tenemos ordenadores.
Pinche aquí para acceder al resto de la serie CEROS Y UNOS.