martes, 28 de septiembre de 2010

Piratas de Silicon Valley

Trata de la historia de unos jóvenes Steve Jobs, Steve Wozniak (creadores de Apple Computer Inc) y Bill Gates, Paul Allen y Steve Ballmer (creadores de MicroSoft) y de como crean lo que hoy en día son dos de las empresas más importantes en el mundo de la informática, si no las más grandes.

Es bastante interesante ya que es la historia real, tal y como sucedío y por ello te das cuenta que Steve Jobs tuvo en sus manos, en cierta medida, a Microsoft, y que si se hubiera dado cuenta, ahora las cosas serían muy distintas. Por si no conoces la historia, Bill se aprovechó de la buena fe de Steve Jobs y le copió su sistema operativo, creando el tan conocido Windows.


Sistemas Operativos

Sistemas Operativos:

Un Sistema Operativo (SO) es el software básico de una computadora que provee una interfaz entre el resto de programas del ordenador, los dispositivos hardware y el usuario.

Las funciones básicas del Sistema Operativo son administrar los recursos de la máquina, coordinar el hardware y organizar archivos y directorios en dispositivos de almacenamiento.

Los Sistemas Operativos más utilizados son Dos, Windows, Linux y Mac. Algunos SO ya vienen con un navegador integrado, como Windows que trae el navegador Internet Explorer.

http://www.masadelante.com/faqs/sistema-operativo



Sistema tipo de software que controla la computadora y administra los servicios y sus funciones como así tambien la ejecución de otros programas compatibles con éste.


Ejemplos de familias de sistemas operativos: Windows, Unix, Linux, DOS, Mac OS, etc.


Un sistema operativo permite interactuar con el hardware de computadoras, teléfonos celulares, PDAs, etc. y ejecutar programas compatibles en éstos.


Permite controlar las asignaciones de memoria y ordenar, las solicitudes al sistema, controlar los dispositivos de entrada y salida, facilitar la conexión a redes y el manejo de archivos.


http://www.alegsa.com.ar/Dic/sistema%20operativo.php



Un sistema operativo es una capa de software que permite la comunicacion maquina-persona, tambien se le puede entender como un administrador de los recursos (hardware) que nos ofrece la maquina para permitir un buen uso de ella por medio de los programas o aplicaciones.

Ejemplos de sistemas operativos:

DOS

GNU/Linux

Microsoft Windows

Mac OS X

BSD

Solaris

http://es.wikiversity.org/wiki/Sistemas_operativos


Interfaz:

1. En software, parte de un programa que permite el flujo de información entre un usuario y la aplicación, o entre la aplicación y otros programas o periféricos. Esa parte de un programa está constituida por un conjunto de comandos y métodos que permiten estas intercomunicaciones.


2. Intefaz también hace referencia al conjunto de métodos para lograr interactividad entre un usuario y una computadora. Una interaz puede ser del tipo GUI, o línea de comandos, etc. También puede ser a partir de un hardware, por ejemplo, el monitor, el teclado y el mouse, son interfaces entre el usuario y el ordenador.


3. En electrónica, un interfaz es el puerto por el cual se envían o reciben señales desde un sistema hacia otros. Por ejemplo, el interfaz USB, interfaz SCSI, interfaz IDE, interfaz puerto paralelo o serial, etc.


http://www.alegsa.com.ar/Dic/interfaz.php


Interfaz es la conexión entre dos ordenadores o máquinas de cualquier tipo dando una comunicación entre ambas.

Además, la palabra interfaz se utiliza en distintos contextos:

Interfaz como instrumento: desde esta perspectiva la interfaz es una "prótesis" o "extensión" (McLuhan) de nuestro cuerpo. El mouse es un instrumento que extiende las funciones de nuestra mano y las lleva a la pantalla bajo forma de cursor. Así, por ejemplo, la pantalla de una computadora es una interfaz entre el usuario y el disco duro de la misma.

Interfaz como superficie: algunos consideran que la interfaz nos trasmite instrucciones ("affordances") que nos informan sobre su uso. La superficie de un objeto (real o virtual) nos habla por medio de sus formas, texturas, colores, etc.

Interfaz como espacio: desde esta perspectiva la interfaz es el lugar de la interacción, el espacio donde se desarrollan los intercambios y sus manualidades.

http://es.wikipedia.org/wiki/Interfaz



Cuando utilizas un programa informático, suele haber «algo» entre tú y él. Ese algo, que es a la vez un límite y un espacio común entre ambas partes, es la interaz.

En tecnología se denomina interfaz a muchas cosas, pero es la interfaz gráfica de usuario el concepto que aquí tratamos.

En internet la interfaz no es sólo la web que se ve en la pantalla; la experiencia con tu producto empieza desde el momento en que tus clientes teclean tu URL o te buscan en Google.

http://albertolacalle.com/hci/interfaz.htm

Mac OS (del inglés Macintosh Operating System, en español. Sistema Operativo de Macintosh) es el nombre del sistema operativo creado por Apple para su línea de Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, icono y menús.

Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.

Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac OS X, el sistema es un derivado de UNIX que mantiene en su interfaz gráfica muchos elementos de las versiones anteriores.

Hay una gran variedad de puntos de vista sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto de Xerox PARC ha sido establecido por documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativas



http://es.wikipedia.org/wiki/Mac_OS



INUX (o GNU/LINUX, más correctamente) es un Sistema Operativo como MacOS, DOS o Windows. Es decir, Linux es el software necesario para que tu ordenador te permita utilizar programas como: editores de texto, juegos, navegadores de Internet, etc. Linux puede usarse mediante un interfaz gráfico al igual que Windows o MacOS, pero también puede usarse mediante línea de comandos como DOS.


Linux tiene su origen en Unix. Éste apareció en los años sesenta, desarrollado por los investigadores Dennis Ritchie y Ken Thompson, de los Laboratorios Telefónicos Bell.


Andrew Tanenbaum desarrolló un sistema operativo parecido a Unix (llamado Minix) para enseñar a sus alumnos el diseño de un sistema operativo. Debido al enfoque docente de Minix, Tanenbaum nunca permitió que éste fuera modificado, ya que podrían introducirse complicaciones en el sistema para sus alumnos.


Un estudiante finlandés llamado Linus Torvalds, constatando que no era posible extender Minix, decidió escribir su propio sistema operativo compatible con Unix.


En aquellos momentos el proyecto GNU (GNU's Not Unix), que Richard Stallman había iniciado hacía ya casi diez años, comprendía un sistema básico casi completo. La excepción más importante era el kernel o núcleo, que controla el hardware.


Torvalds decidió aprovechar el sistema GNU y completarlo con su propio núcleo, que bautizó como Linux (Linux Is Not UniX). El sistema conjunto (herramientas GNU y núcleo Linux) forma lo que llamamos GNU/Linux.

Una pregunta muy común es: ¿qué es el núcleo de Linux?. La respuesta es: Linux. En las líneas anteriores ya se da una primera definición del núcleo: el kernel o núcleo, que controla el hardware. Es decir, el núcleo de Linux, simplificando, es un conjunto de drivers necesarios para usar el ordenador. Relativamente, poco hardware se escapará a un kernel actualizado. En este momento, la última versión del kernel de Linux es 2.6.7.

http://linux.ciberaula.com/articulo/que_es_linux/



Sistema Operativo de Windows Es el sistema operativo de mayor difusión entre computadores personales, servidores pequeños y medianos. Fue desarrollado por Microsoft, aunque muchas de sus ideas básicas provinieron del Sistema Operativo Mac OS de los equipos Macintosh.

Navegación en Windows El ingreso al ambiente gráfico de Windows se produce tan pronto el usuario enciende el computador y el equipo se inicializa, levantándose sus servicios básicos. La representación gráfica de Windows, que aparece inmediatamente después del arranque, recibe el nombre de Escritorio, en el mismo que se distinguen varios componentes.


http://www.slideshare.net/fundamentosinformaticos_a/sistema-operativo-windows-presentation



martes, 21 de septiembre de 2010

CLASIFICACION DE LAS COMPUTADORAS DE ACUERDO A SU TECNOLOGIA, USO Y CAPACIDAD.

Tipos de Computadoras:

Computadoras analógicas:

Son aquellas que representan los valores cambiantes dados por un proceso de variación continua.
Ejemplo: El voltaje en un circuito.

Computadoras digitales:

Son aquellas que representan los valores que han sido convertidos a dígitos binarios, es decir en 0 y 1.
La mayoría de las computadoras trabajan bajo el sistema binario.

Computadora Hibrida:

Son una combinación entre las computadoras analógicas y las digitales.
Se utilizan sobre todo para el control de procesos y robótica.

Categorías de las computadoras:

Supercomputadora:
Son computadoras de gran procesamiento de datos en un tiempo record.
Dentro de las categorías de las computadoras, es la más costosa por lo que su comercialización es mínima.
Son utilizados por organismos gubernamentales, industrias petroleras y organismos de investigación científica.


Mainframe:

Esta categoría de computadora permite un sistema de cómputo de gran tamaño y gran velocidad.
Son utilizadas por grandes corporaciones, universidades y sirven para prestar a miles de usuarios.


Minicomputadora:

Es como un mainframe, pero de menor coste de manutención. Actualmente ha ido desapareciendo del mercado.


Microcomputadora:

Son computadoras que contienen como procesador un solo chip. Dentro de estas categorías de computadoras existen unas tan modernas y poderosas como la maxicomputadora, además cuentan con la ventaja de que son de menor tamaño y más económica.
Se les conoce en el mercado como computadora personal o PC.

La topología de una red es el arreglo físico o lógico en el cual los dispositivos o nodos de una red (e.g. computadoras, impresoras, servidores, hubs, switches, enrutadores, etc.) se interconectan entre sí sobre un medio de comunicación.

a) Topología física: Se refiere al diseño actual del medio de transmisión de la red.
b) Topología lógica: Se refiere a la trayectoria lógica que una señal a su paso por los nodos de la red.

Existen varias topologías de red básicas (ducto, estrella, anillo y malla), pero también existen redes híbridas que combinan una o más de las topologías anteriores en una misma red.

Topología de ducto (bus)
Una topología de ducto o bus está caracterizada por una dorsal principal con dispositivos de red interconectados a lo largo de la dorsal. Las redes de ductos son consideradas como topologías pasivas. Las computadoras "escuchan" al ducto. Cuando éstas están listas para transmitir, ellas se aseguran que no haya nadie más transmitiendo en el ducto, y entonces ellas envían sus paquetes de información. Las redes de ducto basadas en contención (ya que cada computadora debe contender por un tiempo de transmisión) típicamente emplean la arquitectura de red ETHERNET.

Las redes de bus comúnmente utilizan cable coaxial como medio de comunicación, las computadoras se contaban al ducto mediante un conector BNC en forma de T. En el extremo de la red se ponía un terminador (si se utilizaba un cable de 50 ohm, se ponía un terminador de 50 ohms también).

Las redes de ducto son fáciles de instalar y de extender. Son muy susceptibles a quebraduras de cable, conectores y cortos en el cable que son muy difíciles de encontrar. Un problema físico en la red, tal como un conector T, puede tumbar toda la red.

Topología de estrella (star)
En una topología de estrella, las computadoras en la red se conectan a un dispositivo central conocido como concentrador (hub en inglés) o a un conmutador de paquetes (swicth en inglés).

En un ambiente LAN cada computadora se conecta con su propio cable (típicamente par trenzado) a un puerto del hub o switch. Este tipo de red sigue siendo pasiva, utilizando un método basado en contención, las computadoras escuchan el cable y contienden por un tiempo de transmisión.

Debido a que la topología estrella utiliza un cable de conexión para cada computadora, es muy fácil de expandir, sólo dependerá del número de puertos disponibles en el hub o switch (aunque se pueden conectar hubs o switchs en cadena para así incrementar el número de puertos). La desventaja de esta topología en la centralización de la comunicación, ya que si el hub falla, toda la red se cae.

Hay que aclarar que aunque la topología física de una red Ethernet basada en hub es estrella, la topología lógica sigue siendo basada en ducto.

Topología de anillo (ring)
Una topología de anillo conecta los dispositivos de red uno tras otro sobre el cable en un círculo físico. La topología de anillo mueve información sobre el cable en una dirección y es considerada como una topología activa. Las computadoras en la red retransmiten los paquetes que reciben y los envían a la siguiente computadora en la red. El acceso al medio de la red es otorgado a una computadora en particular en la red por un "token". El token circula alrededor del anillo y cuando una computadora desea enviar datos, espera al token y posiciona de él. La computadora entonces envía los datos sobre el cable. La computadora destino envía un mensaje (a la computadora que envió los datos) que de fueron recibidos correctamente. La computadora que transmitió los datos, crea un nuevo token y los envía a la siguiente computadora, empezando el ritual de paso de token o estafeta (token passing) nuevamente.

Topología de malla (mesh)
La topología de malla (mesh) utiliza conexiones redundantes entre los dispositivos de la red ahí como una estrategia de tolerancia a fallas. Cada dispositivo en la red está conectado a todos los demás (todos conectados con todos). Este tipo de tecnología requiere mucho cable (cuando se utiliza el cable como medio, pero puede ser inalámbrico también). Pero debido a la redundancia, la red puede seguir operando si una conexión se rompe.

Las redes de malla, obviamente, son más difíciles y caras para instalar que las otras topologías de red debido al gran número de conexiones requeridas.

LAN: Local Area Network, Red de Area Local

Una LAN conecta varios dispositivos de red en una área de corta distancia (decenas de metros) delimitadas únicamente por la distancia de propagación del medio de transmisión [coaxial (hasta 500 metros), par trenzado (hasta 90 metros) o fibra óptica [decenas de metros], espectro disperso o infrarrojo [decenas de metros]).

Una LAN podría estar delimitada también por el espacio en un edificio, un salón, una oficina, hogar…pero a su vez podría haber varias LANs en estos mismos espacios. En redes basadas en IP, se puede concebir una LAN como una subred, pero esto no es necesariamente cierto en la práctica.

Las LAN comúnmente utilizan las tecnologías Ethernet, Token Ring, FDDI (Fiber Distributed Data Interface) para conectividad, así como otros protocolos tales como Appletalk, Banyan Vines, DECnet, IPX, etc.

MAN: Metropolitan Area Network, Red de Area Metropolitana
Una MAN es una colección de LANs o CANs dispersas en una ciudad (decenas de kilómetros). Una MAN utiliza tecnologías tales como ATM, Frame Relay, xDSL (Digital Subscriber Line), WDM (Wavelenght Division Modulation), ISDN, E1/T1, PPP, etc. para conectividad a través de medios de comunicación tales como cobre, fibra óptica, y microondas.

WAN: Wide Area Network, Red de Area Local
Una WAN es una colección de LANs dispersadas geográficamente cientos de kilómetros una de otra. Un dispositivo de red llamado enrutador es capaz de conectar LANs a una WAN.

Las WAN utilizan comúnmente tecnologías ATM (Asynchronous Transfer Mode), Frame Relay, X.25, E1/T1, GSM, TDMA, CDMA, xDSL, PPP, etc. para conectividad a través de medios de comunicación tales como fibra óptica, microondas, celular y vía satélite.

WLAN y WPAN
También existen las redes inalámbricas WLAN y WPAN, las primeras (wireless Local Area Network) están delimitadas por la distancia de propagación del medio y de la tecnología empleada, en interiores hasta 100 metros y en exteriores varios kilómetros.

Las WLAN utilizan tecnologías tales como IEEE 802.11a, 802.11b, 802.15, HiperLAN2, HomeRF, etc. para conectividad a través de espectro disperso (2.4 GHz, 5 GHz).

Las WPANs (Wireless Personal Area Network) están delimitadas en distancia aún más que las WLANs, desde los 30 metros hasta los 100 metros bajo condiciones óptimas en interiores.

Las WPAN utilizan tecnologías tales como IEEE 802.15, Bluetooth, HomeRF, 802.11b para conectividad a través de espectro disperso o con infrarrojo.

Un proveedor de servicios de Internet (o ISP, por la sigla en inglés de Internet Service Provider) es una empresa que brinda conexión a Internet a sus clientes. Un ISP conecta a sus usuarios a Internet a través de diferentes tecnologías como DSL, Cablemódem, GSM, Dial-up, Wifi, entre otros. Muchos ISP también ofrecen servicios relacionados con Internet, como el correo electrónico, alojamiento web, registro de dominios, servidores de noticias, etc.

Software de aplicación

Ofrece la oportunidad al usuario de personalizar el sistema de aplicación según sus necesidades; es decir que están diseñados considerando las particularidades que esa aplicación tiene para el usuario.

Software de sistemas

Este software es independiente de cualquier paquete de software para uso general o cualquier área de aplicación específica; controla y respalda en cierto modo el software de las otras categorías. Pertenecen a la categoría del software de base el sistema operativo, la interfaz gráfica de usuario (GUI) y los utilitarios.

El software de base ahorra al usuario el tener que preocuparse por temas tales como:

Las partes de la memoria del computador que contienen el documento; los segmentos del software de procesamiento de textos que se encuentran en la memoria; las instrucciones de salida enviadas por la computadora a la impresora.

martes, 14 de septiembre de 2010

Virus

¿Qué es un virus informatico?

Un virus informático es un programa que puede infectar a otros programas, modificándolos de tal manera que causen daño en el acto (borrar o dañar archivos) o afectar su rendimiento o seguridad.

Este software constituye una amenaza muy seria; se propaga más rápido de lo que se tarda en solucionarlo. Por lo tanto es necesario que los usuarios se mantengan informados acerca de los virus, huyendo de la ignorancia que les han permitido crecer hasta llegar a ser un grave problema.


¿Cuáles son los tipos de virus que existen?


La primera clase incluye los que infectan archivos, adjuntos a programas ordinarios, aunque algunos pueden infectar cualquier archivo. Un virus de acción directa selecciona uno o varios programas para infectar cada vez que el programa es ejecutado. Uno residente se esconde en alguna parte de la memoria la primera vez que un programa infectado se ejecuta, y después infecta a otros programas cuando son ejecutados.


La segunda categoría es la de los que infectan archivos de sistema o sector de arranque. Estos virus, infectan el area de sistema en un disco. Hay algunos que se ejecutan al iniciarse windows, y virus que infectan directamente al sector de arranque de discos duros, pudiendo incluso dañarlos permanentemente. Hay otros virus que modifican las entradas a la tabla de archivos para que el virus se ejecute. Hay que tener en cuenta que estos pueden causar perdida de información (archivos).


¿Por qué hay menos cantidad de virus en las computadoras basadas en el sistema operativo Unix? -Linux, MacOS, Ubuntu

Por que los programadores y usarios de sistemas basados en Unix han considerado la seguridad como una prioridad por lo que hay mayores medidas frente a los virus.


¿La piratería influye en la propagación de virus? ¿Por qué?


La distribución de un “crack” también puede tener como objetivo la propagación de virus informáticos. Por eso es posible que la instalación de programas “pirateados” suponga la infección del ordenador por virus que dañen toda la información contenida.

Escriba 5 acciones a realizar para evitar contaminar su computadora.


El correo electrónico es el medio de transmisión preferido por los virus, por lo que hay que tener especial cuidado en su utilización. Cualquier correo recibido puede contener virus aunque no le acompañe el símbolo de datos adjuntos (el habitual "clip"). Además, no es necesario ejecutar el archivo adjunto de un mensaje de correo para ser infectado. Por ejemplo, en versiones antiguas y no actualizadas del MS Internet Explorer basta únicamente con abrir el mensaje, o visualizarlo mediante la 'vista previa'. Para prevenir esto, lo mejor es verificar los mensajes no esperados a ver si son reales antes de abrirlos. Un indicativo de posible virus es la existencia en el asunto del mensaje de palabras en un idioma diferente (generalmente inglés).


Muchas páginas de Internet permiten la descarga de programas y archivos a los ordenadores de los usuarios. Cabe la posibilidad de que estos archivos estén infectados con virus.


Como no existen indicadores claros que garanticen su fiabilidad, debemos evitar la descarga de programas gratis. Por lo general, son sitios seguros aquellos que muestran una información clara acerca de su actividad y los productos o servicios que ofrecen; también los avalados por organizaciones tales como editoriales, organismos oficiales, etc.


Gracias a Internet es posible intercambiar información y conversar en tiempo real sobre temas muy diversos mediante los chats. Un amplio número de virus utiliza precisamente estos chats para propagarse. Lo hacen enviando ficheros adjuntos (generalmente con nombres muy sugerentes). En general, si desconocemos el usuario que nos envía el archivo, debemos de rechazarlo.


Una muy buena forma de minimizar el impacto de un virus, tanto a nivel corporativo como particular, es respaldar correctamente con copias de seguridad de nuestra información.


En base a la información ubicada en la liga "Humano infectado", ¿Cree que usted podría llegar a ser infectado por un virus de computadora en el futuro? ¿Por qué?

En realidad, afectaria a los que tengan protesis y se han manejadas por las computadoras, eso seria lo unico como podria manifestarse.




Adolfo Rodrigo Torres Ortiz


http://es.wikipedia.org/wiki/Virus_informático#Virus_inform.C3.A1ticos_y_sistemas_operativos

http://www.desarrolloweb.com/articulos/2176.php


Nombre en Binario

A 0100 0001

d 0110 0100

o 0110 1111

l 0110 1100

f 0110 0110

o 0110 1111

R 0101 0010

o 0110 1111

d 0110 0100

r 0111 0010

i 0110 1001

g 0110 0111

o 0110 1111

T 0101 0100

o 0110 1111

r 0111 0010

r 0111 0010

e 0110 0101

s 0111 0011

O 0100 1111

r 0111 0010

t 0111 0100

i 0110 1001

z 0111 1010

Sistemas Numericos

El sistema hexadecimal, a veces abreviado como hex, es el sistema de numeración posicional de base 16 -empleado por tanto 16 símbolos-. Su uso actual está vinculada a la informática y ciencias de la computación, se suele utilizar el byte u octeto como unidad básica de memoria.

El sistema numérico en base 8 se llama octal y utiliza los dígitos 0 a 7.

El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

El sistema decimal es un sistema de numeración posicional en el que las cantidades se represenatan utilizando como base el número diez, por lo que se compone de diez cifras diferentes: cero; uno; dos; tres; cuatro; cinco; seis; siete; ocho; nueve.

John Von Neumann

Nacido el 28 de diciembre de 1903 ,

en Budapest, Hungría. Fallecido el

8 de febrero de 1957, en

Washington D.C., USA


John von Neumann, matemático Húngaro-Americano que demostró en 1944 que las mecánicas de la onda de Schrödinger y las mecánicas de la matriz de Heisenberg eran matemáticamente equivalente. Él también desarrolló la teoría de los juegos (1944).


Su padre, Max Neumann, era un banquero judío y su madre la hija de un rico comerciante. Max Neumann compró un título nobiliario (por aquella época, la nobleza estaba mejor considerada que la riqueza), aunque él nunca lo utilizó, pero sí su hijo John. Esta es la razón del «von» que acompaña al nombre.


John, era el mayor de tres hermanos. De pequeño ya asombraba a todos por su memoria; dicen que leía una columna de la guía telefónica varias veces y era capaz de responder a las preguntas que le hiciesen de nombres, domicilios o teléfono. Cuando ingresó al colegio su primer profesor se dio cuenta que era un genio (por cierto en el mismo colegio también estaba Eugene Wigner, que fue intimo amigo de Neumann el resto de su vida. Wigner se dedicó a la física, porque, según dijo, “después de conocer a Neumann me di cuenta de la diferencia que había entre un matemático de primera y yo”.


Aunque la orientación de Neumann hacia las matemáticas estaba clara, no obstante su padre lo influenció para que estudiase química. Sus estudios de pregrado los inició en la universidad de Berlín y, los finalizó, en el Technische Hochschule de Zurich. Egresó en 1926, recibiéndose como ingeniero químico. Pero durante ese mismo período de estudiante activo, von Neumann llevó a la práctica otro plan que estaba más en consonancia con sus intereses. En efecto, en el verano antes de su partida a Zurich, se matriculó en la universidad de Budapest para cursar un doctorado en matemáticas avanzadas. Su tesis de Ph.D. se basó en la axiomatización de la teoría de conjuntos, desarrollada por George Cantor. Se trataba entonces, de un tema de actualidad matemática, que era estudiado por grandes profesores y que, a muchos de ellos, les causaba más de un dolor de cabeza. Sin embargo, el joven von Neumann, con sólo 17 años de edad, supo soslayar con éxito sus distintas y variadas problemáticas. Su axiomatización dejó una marca permanente en el tema; y su definición de números ordinales, publicada cuando él tenía 20 años, se ha adoptado universalmente.


Neumann, ingresó como docente a la universidad de Berlín en 1926, donde estuvo hasta 1929. Luego, en el año académico 1929-30, se desempeñó como profesor en la universidad de Hamburgo. Durante este tiempo él trabajó principalmente en física cuántica y teoría operativa. También, entre 1926 y 1927 estudió en Göttingen (Hilbert fue su profesor). Ya, en esa época, los brillantes dotes de Neumann habían empezado a reconocerse.


Von Neumann era un pensador creativo y original, pero también tenía la capacidad de tomar las sugerencias y conceptos que formulaban otros, con el objeto de ordenarlos e inmediatamente modificarlos para transformarlos en ideas mucho más completas y lógicas. Aquello, de alguna manera, fue su aporte medular para el desarrollo de la mecánica quántica, después de su paso por la universidad de Göttigen y de su graduación en 1927.


La mecánica cuántica se ocupa de la naturaleza de las partículas atómicas y de las leyes que gobiernan sus acciones. Pero cuando se utilizaba exclusivamente la física newtoniana para describir las observaciones de las partículas atómicas, las teorías preexistentes de la mecánica cuántica se vieron enfrentadas a serias discrepancias.


Una de esas observaciones tiene que ver con las longitudes de onda de la luz que los átomos pueden absorber y emitir. Por ejemplo, los átomos del hidrógeno absorben energía en 656,3 nm, 486,1 nm, 434,0 nm o 410,2 nm, pero no así las longitudes de onda. Esto era contrario a los principios de la física de finales del siglo diecinueve, que predecía que un electrón que se mueve en una órbita alrededor del núcleo en un átomo debe irradiar todas las longitudes de onda de la luz, por lo tanto perdería la energía rápidamente al caer en el núcleo. Esto no es obviamente lo que se observa, así que una nueva teoría cuántica fue introducida por Max Planck en 1900, en la cual se formula que dicha energía sólo es emitible en agrupaciones que son definidas.


Lo anterior, condujo a que se desarrollaran dos teorías competitivas que describen la naturaleza del átomo, en la cual solamente puede absorber y emitir energía en específicos quantum. Una de ellas, formulada por Erwin Schrödinger, sugería que el electrón del hidrógeno es análogo a una de las secuencias de un instrumento musical. Como aquella secuencia, que emite un tono específico junto con insinuaciones; en consecuencia, el electrón tendría cierto «tono» que sería el responsable de la emisión energética. Usando esta teoría, Schrödinger desarrolló una ecuación de onda para el electrón que predecía correctamente las longitudes de onda de luz emitida por el hidrógeno.
















La otra teoría fue formulada por los físicos de Göttingen, incluyendo a Werner Heisenberg, Max Born, y Pascual Jordania, sus argumentos se centraron en la posición y el momentum de un electrón en un átomo. Propusieron que esos valores no eran directamente observable (solamente la luz emitida por el átomo podría ser observada) y, por ello, comportamiento era diferente al del movimiento de una partícula en la física newtoniana. Teorizaron que los valores de la posición y del momentum sólo pueden ser descritos por construcciones matemáticas, exceptuando números ordinarios. Se trata de cálculos que describen el movimiento del electrón a través de matrices algebraicas.


Esos dos modelos, aunque perecen muy diferentes, matemáticamente son equivalentes; dos formulaciones distintas, pero con el mismo principio. Los autores de los dos sistemas, sin embargo, no lo veían así, y demandaban que la propia, al margen de superior, era la correcta. En ese ambiente, que acontecía en 1926, aparece en escena von Neumann y se puso a trabajar rápidamente en conciliar ambas ideas y en avanzar en el desarrollo de la teoría quántica.


Von Neumann halló el campo en común que tenían los dos modelos: el de onda y el de matriz. Pero al hacer uso de métodos matemáticos más rigurosos para el acercamiento, descubrió una nueva teoría, más fundamental y de mayor alcance que las otras dos. A través de un acercamiento axiomático abstrajo los dos modelos, en el cual cada estado lógico es definido como la consecuencia del estado anterior. Durante ese proceso de investigación, von Neumann construyó las reglas del «espacio abstracto de Hilbert» con el objeto de ayudar al desarrollo de una estructura matemática para la teoría cuántica. Su formalismo permitió considerables avances, realizados por otros investigadores, en el tema e incluso consecuencias para enigmáticas predicciones, como aquella sobre el sentido de la observación que afecta a los electrones en los laboratorios.


Entre 1927 y 1929, después de su formalización de la mecánica cuántica, von Neumann viajó en varias ocasiones a dar conferencias y a participar en congresos y simposios académicos, como asimismo publicar, prácticamente cada mes, artículos sobre matemáticas. Antes de finalizar el año de 1929, había publicado 32 artículos, todos en alemán, y cada uno de ellos escrito de una manera altamente lógica y ordenada de modo que otros matemáticos pudieran incorporar fácilmente sus ideas a sus propios trabajos.


Von Neumann había llegado a un reconocimiento estelar en el mundo académico, dando conferencias sobre nuevas ideas o asistiendo a otras en que grandes mentes exponían sobre sus propios trabajos, creándose con ello una imagen de ingenioso y joven genio. No obstante, a menudo evitaba las discusiones más confrontacionales con sus colegas, contando muchas bromas o historias, algunas de las cuales no deberían decirse en la presencia de damas (aunque asistían pocas mujeres a estos seminarios matemáticos). Otras veces traía a colación un interesante hecho de la historia antigua, cambiando con ello el tema de la controversia pero, a su vez, llamando la atención por la asombrosamente docta y profesional exposición que ofrecía sobre la materia el joven von Neumann.




A finales del año 1929, le ofrecieron una docencia en la universidad de Princeton , NJ, EE.UU. Una época en que en los Estado Unidos se trataba de estimular el desarrollo de las ciencias matemáticas contratando a los mejores matemáticos y físicos de Europa. Von Neumann, se desempeñó allí como profesor entre 1930 y 1933, sin embargo, no era bueno en esas labores, pues era muy difícil seguir sus explicaciones.


Antes de viajar a los EE.UU., von Neumann decidió casarse con Mariette Kovesi, a quién conocía desde su niñez. Su luna de miel consistió en una travesía a través del Atlántico a New York, pero su resultado no fue lo esperado por ambos, debido a los inesperados mareos de Mariette.


El matrimonio de John y Mariette tuvo una hija, Marina, en 1935. Von Neumann era cariñoso con ella, pero no contribuía a su cuidado ni a los quehaceres domésticos, ya que esas labores las consideraba como una obligación de la esposa. Las diferencias maritales entre Mariette que entonces tenía 26 años de edad y John con 31 años, se fueron incrementado hasta llegar a la ruptura del matrimonio en 1936. Ella vuelve a su casa paterna en Budapest y von Neumann viaja por Europa cumpliendo una serie de compromisos, luego retorna a los EE.UU. Después de un viaje que tuvo que realizar a Budapest, conoció a Klari Dan, con quién reincidió en el matrimonio, casándose en 1938.


Su segundo matrimonio, tuvo una mayor duración que el primero, pero la personalidad distante de von Neumann compitió en contra de esa unión, ya que habitualmente se encontraba absorbido en sus pensamientos y obsesionado por su trabajo. De ese tradeoff personal de von Neumann el mundo de la ciencia se benefició enormemente, y muchos de sus trabajos influyeron en significativos cambios en la vida de las personas. Von Neumann había sido nombrado en 1933, uno de los miembros del selecto grupo de científicos que han integrado el Institute for Advanced Studies at Princeton. Dos de los objetivos que más absorbieron el tiempo de von Neumann, desde que recibió ese nombramiento en Princeton, fueron el desarrollo de las armas nucleares y la invención del computador digital.


A Neumann, le encantaba Estados Unidos y, la llegada de los nazis al poder en Alemania, reforzó su convencimiento de que su futuro académico estaba en ese país. Von Neumann ayudó a muchos científicos judíos que huyeron de Alemania a encontrar trabajo en Estados Unidos.


Von Neumann además de tener una portentosa inteligencia y una memoria prodigiosa, era una persona muy divertida. En su juventud, frecuentaba los cabarets de Berlín y en su estancia en Princeton eran famosas sus fiestas.


Durante la Segunda Guerra Mundial, Von Newman integró el grupo de científicos que participaron en el desarrollo de la bomba atómica (Proyecto Manhattan) en el laboratorio de Los Álamos en Nuevo Mexico. El diseño del método de implosión de las bombas nucleares se debe a Von Newmann. Finalizado el conflicto bélico, Von Newmann participó activamente en el desarrollo del programa armamentista americano. Defendió y participó en la construcción de la bomba de Hidrogeno, y propuso la construcción de misiles intercontinentales.


Por otra parte, Von Neumann fue un pionero en la ciencia de la computación. Fue el creador de la arquitectura de los computadores actuales, propuso la adopción del bit como medida de la memoria de los computadores, resolvió el problema de la obtención de respuestas fiables con componentes no fiables (bit de paridad).


También participó en el diseño del que es considerado primer computador, el ENIAC, que se diseñó para calcular la trayectoria de los proyectiles. En este computador las modificaciones del programa suponía cambiar el conexionado de las válvulas. Von Newmann propuso separar el software del hardware. Este diseño se realizó en el computador EDVAC.

Murió de cáncer a los 53 años, y se cree que esa enfermedad la adquirió debido a la exposición a la radioactividad, cuando participaba en el proyecto Manhattan para la construcción de la bomba atómica en el laboratorio de los Álamos. Von Neumann, que había sido una persona de gran éxito en su vida, no supo afrontar la enfermedad y la muerte: El dolor y el pánico le hacía pasar las noches dando gritos de dolor y terror.






Medalla Neumann

El Instituto de Ingenieros Electrónicos y de Electricidad (IEEE) honra anualmente a John von Neumann con la concesión de una medalla anual en su honor. La medalla John von Neumann del IEEE fue establecida en 1990 por la junta directiva, y es otorgada anualmente en mérito a logros excepcionales en ciencia, tecnología y temas relacionados con la computación. Los logros pueden ser teóricos, tecnológicos, o de meritorias iniciativas, y no es necesario que hayan sido hechos inmediatamente antes de la fecha en que es concedida.