Tarea Nº4

Grandes Personalidades de la computación y la

Informática.
Conclusion

Ada Lovelace, fue una matemática, informática y escritora británica, célebre sobre todo por
su trabajo acerca de la calculadora de uso general de Charles Babbage, la denominada
máquina analítica. Entre sus notas sobre la máquina, se encuentra lo que se reconoce hoy
como el primer algoritmo destinado a ser procesado por una máquina, por lo que se la
considera como la primera programadora de ordenadores.
Charles Babbagfue un matemático y científico de la computación británico.1 Diseñó y
desarrolló una calculadora mecánica capaz de calcular tablas de funciones numéricas por el
método de diferencias. También diseñó, pero nunca construyó, la analítica para ejecutar
programas de tabulación o computación.

Alan Turing: fue un matemático, lógico, Informático teórico, criptógrafo, filósofo, biólogo
teórico, maratoniano y corredor de ultradistancia británico. Es considerado uno de los
padres de la ciencia de la computación y precursor de la informática moderna.

Tim Berners-Lee conocido como Tim Berners-Lee, es un científico de la computación
británica, conocido por ser el padre de la World Wide Web. Estableció la primera
comunicación entre un cliente y un servidor usando el protocolo HTTP en noviembre
de 1989. En octubre de 1994 fundó el Consorcio de la World Wide Web (W3C) con
sede en el MIT, para supervisar y estandarizar el desarrollo de las tecnologías sobre
las que se fundamenta la Web y que permiten el funcionamiento de Internet.

Gordon Moore Nacido en San Francisco, California el 3 de enero de 1929. Recibió una
licenciatura en química por la Universidad de California en Berkeley en 1950 y un
doctorado en química y física en el Instituto de Tecnología de California (Caltech) en
1954. Previo a sus estudios en Berkeley, pasó sus primeros dos años de licenciatura
en la Universidad Estatal de San José donde conoció a su esposa Betty.

Steve Job más conocido como Steve Jobs, fue un empresario y magnate de los
negocios en el sector informático y de la industria del entretenimiento
estadounidense. Fue cofundador y presidente ejecutivo de Apple12 y máximo
accionista individual de The Walt Disney Company.

Grandes Personalidades de la computación y la

Informática.

Ada Lovelace

Ada Lovelace, fue una matemática, informática y escritora británica, célebre sobre
todo por su trabajo acerca de la calculadora de uso general de Charles Babbage, la
denominada máquina analítica. Entre sus notas sobre la máquina, se encuentra lo que
se reconoce hoy como el primer algoritmo destinado a ser procesado por una
máquina, por lo que se la considera como la primera programadora de ordenadores
Su posición social y su educación la llevaron a conocer a científicos importantes como
Andrew Crosse, Sir David Brewster, Charles Wheatstone, Michael Faraday y al novelista
Charles Dickens, relaciones que aprovechó para llegar más lejos en su educación. Entre
estas relaciones se encuentra Mary Somerville, que fue su tutora durante un tiempo,
además de amiga y estímulo intelectual.8​ Ada Byron se refería a sí misma como una
científica poetisa y como analista (y metafísica).
A una edad temprana, su talento matemático la condujo a una relación de amistad
prolongada con el matemático inglés Charles Babbage, y concretamente con la obra de
Babbage sobre la máquina analítica.11​ Entre 1842 y 1843, tradujo un artículo del
ingeniero militar italiano Luigi Menabrea sobre la máquina, que complementó con un
amplio conjunto de notas propias, denominado simplemente Notas. Estas notas
contienen lo que se considera como el primer programa de ordenador, esto es, un
algoritmo codificado para que una máquina lo procese. Las notas de Lovelace son
importantes en la historia de la computación. Otros historiadores rechazan esta
perspectiva y señalan que las notas personales de Babbage de los años 1836/1837
contienen los primeros programas para el motor
También desarrolló una visión de la capacidad de las computadoras para ir más allá del
mero cálculo o el cálculo de números, mientras que muchos otros, incluido el propio
Babbage, se centraron solo en esas capacidades. Su mentalidad de "ciencia poética" la
llevó a hacer preguntas sobre el Motor Analítico (como se muestra en sus notas)
examinando cómo los individuos y la sociedad se relacionan con la tecnología como
una herramienta de colaboración.
n

El primer programa de ordenador
Las Notas fueron etiquetadas alfabéticamente de la A a la G. La nota G estaba dedicada
a los números de Bernoulli; en este apartado Ada describe con detalle las operaciones
mediante las cuales las tarjetas perforadas "tejerían" una secuencia de números en la
máquina analítica. Este código está considerado como el primer algoritmo
específicamente diseñado para ser ejecutado por un ordenador, aunque nunca fue
probado ya que la máquina nunca llegó a construirse. Pero podemos concluir que la
nota G es el algoritmo de Ada, así que a ella se la reconoce como la primera
programadora de la historia,16​ la primera persona en describir un lenguaje de
programación de carácter general interpretando las ideas de Babbage, pero
reconociéndosele la plena autoría y originalidad de sus aportes.
Las Notas de Ada se publicaron en la revista Scientific Memoirs en septiembre de 1843,
con el título de "Sketch of the analytical engine invented by Charles Babbage".​ Ella
firmó con sus iniciales A. A. L., pero pronto se supo a quién correspondían. Su
condición femenina perjudicó su trabajo y los científicos no se lo tomaron en serio.
En sus notas, Ada dice que la «máquina analítica» sólo podía dar información
disponible que ya era conocida: vio claramente que no podía originar conocimiento. Su
trabajo fue olvidado por muchos años, atribuyéndole exclusivamente un papel de
transcriptora de las notas de Babbage, cuando en verdad, el trabajo de Lovelace fue,
como relata Plant, "mucho más influyente -y tres veces más extenso- que el texto del
que se suponía que era meramente accesorio".18 Este mismo caracterizó su aporte al
llamarla su intérprete; sin embargo recientes investigaciones muestran la originalidad
de su punto de vista sobre las instrucciones necesarias para el funcionamiento de la
«máquina analítica». En efecto, Lovelace "había creado el primer ejemplo de lo que
más tarde se conocería como programación de computadoras"18​ y es, por lo tanto, la
primera programadora de la historia de la computación.

Más allá de los números

En sus notas, Lovelace enfatizó la diferencia entre el motor analítico y las máquinas de
cálculo previas, en particular su capacidad de ser programado para resolver problemas
de cualquier complejidad. Se dio cuenta de que el potencial del dispositivo se extendía
mucho más allá del mero procesamiento numérico intensivo (number crunching). En
sus notas, ella escribió
[La máquina analítica] podría actuar sobre otras cosas además del número, se
encontraron objetos cuyas relaciones fundamentales mutuas podrían ser expresadas
por las de la ciencia abstracta de las operaciones, y que también deberían ser
susceptibles de adaptaciones a la acción de la notación operativa y el mecanismo del
motor.

Legado

Sugirió el uso de tarjetas perforadas como método de entrada de información e
instrucciones a la máquina analítica.24​ Además introdujo una notación para escribir
programas, principalmente basada en el dominio que Ada tenía sobre el texto de Luigi
Menabrea de 1842 (que comentó personalmente completándolo con anotaciones que
son más extensas que el texto mismo) sobre el funcionamiento del telar de Jacquard
así como de la máquina analítica de Babbage. Es reseñable además su mención sobre
la existencia de ceros o estado neutro en las tarjetas perforadas siendo que las tarjetas
representaban para la máquina de Babbage números decimales y no binarios (8
perforaciones equivaldrían entonces a 8 unidades).
Reconocimientos

El lenguaje de programación Ada, creado por el Departamento de Defensa de los
Estados Unidos, fue nombrado así en homenaje a Ada Lovelace. El manual de
referencia del lenguaje fue aprobado el 10 de diciembre de 1980, y al Estándar de
Defensa de los Estados Unidos para el lenguaje MIL-STD-1815 se le dio el número del
año de su nacimiento.
En 1981, la Asociación de Mujeres en Informática inauguró su Premio Ada
Lovelace.26​27​ Desde 1998, la British Computer Society (BCS) ha otorgado la Medalla
Lovelace28​ y en 2008 inició una competencia anual para mujeres estudiantes.29​
BCSWomen patrocina el Coloquio Lovelace, una conferencia anual para mujeres
universitarias. Ada College es una universidad de educación superior en Tottenham
Hale, Londres, centrada en las habilidades digitales.

Charles Babbag
fue un matemático y científico de la computación británico.1​ Diseñó y desarrolló una
calculadora mecánica capaz de calcular tablas de funciones numéricas por el método
de diferencias. También diseñó, pero nunca construyó, la analítica para ejecutar
programas de tabulación o computación; por estos inventos se le considera como una
de las primeras personas en concebir la idea de lo que hoy llamaríamos una
computadora, por lo que se le considera como "El Padre de la computación". En el
Museo de Ciencias de Londres se exhiben partes de sus mecanismos inconclusos. Parte
de su cerebro conservado en formol se exhibe en el Royal College of Surgeons of
England. Sitio en Londres.

Diseño de computadoras
Babbage intentó encontrar un método por el cual se pudieran hacer cálculos
automáticamente por una máquina, eliminando errores debidos a la fatiga o
aburrimiento que sufrían las personas encargadas de compilar las tablas matemáticas
de la época. Esta idea la tuvo en 1812. Tres diversos factores parecían haberlo
motivado: una aversión al desorden, su conocimiento de tablas logarítmicas, y los
trabajos de máquinas calculadoras realizadas por Blaise Pascal y Gottfried Leibniz. En
1822, en una carta dirigida a sir Humphry Davy en la aplicación de maquinaria al
cálculo e impresión de tablas matemáticas, discutió los principios de una máquina
calculadora. Además diseñó un plano de computadoras.

Máquina analítica

Entre 1833 y 1842, Babbage lo intentó de nuevo; esta vez, intentó construir una
máquina que fuese programable para hacer cualquier tipo de cálculo, no solo los
referentes al cálculo de tablas logarítmicas o funciones polinómicas. Esta fue la
máquina analítica. El diseño se basaba en el telar de Joseph Marie Jacquard, el cual
usaba tarjetas perforadas para realizar diseños en el tejido. Babbage adaptó su diseño
para conseguir calcular funciones analíticas. La máquina analítica tenía dispositivos de
entrada basados en las tarjetas perforadas de Jacquard, un procesador aritmético, que

calculaba números, una unidad de control que determinaba qué tarea debía ser
realizada, un mecanismo de salida y una memoria donde los números podían ser
almacenados hasta ser procesados. Se considera que la máquina analítica de Babbage
fue la primera computadora de la historia. Un diseño inicial plenamente funcional de
ella fue terminado en 1835. Sin embargo, debido a problemas similares a los de la
máquina diferencial, la máquina analítica nunca fue terminada por Charles. En 1842,
para obtener la financiación necesaria para realizar su proyecto, Babbage contactó con
sir Robert Peel. Peel lo rechazó, y ofreció a Babbage un título de caballero que fue
rechazado por Babbage. Lady Ada Lovelace, matemática e hija de Lord Byron, se
enteró de los esfuerzos de Babbage y se interesó en su máquina. Promovió
activamente la máquina analítica, y escribió varios programas para la máquina
analítica. Los diferentes historiadores concuerdan que esas instrucciones hacen de Ada
Lovelace la primera programadora de computadoras de la historia.
Planos de la impresora moderna
Charles Babbage ha sido considerado por algunos como el padre de las computadoras
modernas, pero sin duda también puede ser considerado el padre de las impresoras
modernas. Más de 150 años después de sus planos y un trabajo minucioso del Museo
de Ciencias de Londres, dieron como resultado la construcción de la Máquina Analítica.
Los planos del matemático y científico incluían un componente de impresión, el cual ha
sido reconstruido por el Museo y es funcional. Esta impresora consta de 8000 piezas
mecánicas y pesa aproximadamente 2,5 toneladas.

Criptografía

Charles Babbage también logró resultados notables en criptografía. Rompió la cifra
auto llave de Vigenère,22​ así como la cifra mucho más débil que se llama cifrado de
Vigenère hoy en día. La cifra del auto llave fue llamada «la cifra indescifrable», aunque
debido a la confusión popular muchos pensaron que la cifra apolialfabética más débil
era indescifrable. El descubrimiento de Babbage fue usado en campañas militares
inglesas, y era considerado un secreto militar. Como resultado, el mérito por haber
descifrado esta clave le fue otorgado a Friedrich Kasiski, quien descifró también este
sistema criptográfico algunos años después.

Alan Turing

fue un matemático, lógico, Informático teórico, criptógrafo, filósofo, biólogo teórico,
maratoniano y corredor de ultradistancia británico.1​2​3​4​5​
Es considerado uno de los padres de la ciencia de la computación y precursor de la
informática moderna. Proporcionó una influyente formalización de los conceptos de
algoritmo y computación: la máquina de Turing. Formuló su propia versión que hoy es
ampliamente aceptada como la tesis de Church-Turing (1936).
Durante la segunda guerra mundial, trabajó en descifrar los códigos nazis,
particularmente los de la máquina Enigma, y durante un tiempo fue el director de la
sección Naval Enigma de Bletchley Park. Se ha estimado que su trabajo acortó la
duración de esa guerra entre dos y cuatro años.6​ Tras la guerra, diseñó uno de los
primeros computadores electrónicos programables digitales en el Laboratorio Nacional
de Física del Reino Unido y poco tiempo después construyó otra de las primeras
máquinas en la Universidad de Mánchester.

La máquina de Turing

En su estudio Los números computables, con una aplicación al Entscheidungsproblem
(publicado en 1936), Turing reformuló los resultados obtenidos por Kurt Gödel en 1931
sobre los límites de la demostrabilidad y la computación, sustituyendo al lenguaje
formal universal descrito por Gödel por lo que hoy se conoce como máquina de Turing,
unos dispositivos formales y simples.
Turing demostró que dicha máquina era capaz de resolver cualquier problema
matemático que pudiera representarse mediante un algoritmo. Las máquinas de
Turing siguen siendo el objeto central de estudio en la teoría de la computación. Llegó
a probar que no había ninguna solución para el problema de decisión,
Entscheidungsproblem, demostrando primero que el problema de la parada para las
máquinas de Turing es irresoluble: no es posible decidir algorítmicamente si una
máquina de Turing dada llegará a pararse o no. Aunque su demostración se publicó
después de la demostración equivalente de Alonzo Church respecto a su cálculo
lambda, el estudio de Turing es mucho más accesible e intuitivo.19​ También fue
pionero con su concepto de «máquina universal (de Turing)», con la tesis de que dicha
máquina podría realizar las mismas tareas que cualquier otro tipo de máquina. Su
estudio también introduce el concepto de números definibles.

Análisis criptográfico (desciframiento de códigos)
Un día después de la declaración de guerra de Gran Bretaña, en septiembre de 1939,
Turing fue convocado a Bletchley Park, donde se encontraba el Servicio Británico de
Descifrado. Las nueve mil personas que trabajaban allí, se dedicaron a intentar
interpretar las comunicaciones alemanas cifradas en código morse.
El cifrado lo hacían a través de una máquina de sistema rotatorio llamada Enigma
(máquina). Enigma había sido inventada en 1918 por Arthur Scherbius. Era similar a
una máquina de escribir, en la cual cada vez que una letra era pulsada, era sustituida
por otra mediante el uso de tres rotores internos (las máquinas militares llegaron a
usar cinco), cuyo resultado era más de diez mil billones de configuraciones distintas.
Debido al carácter portátil de la máquina, los operadores podían estar ubicados en los
puestos de mando, interior de los tanques, submarinos, en bombardeos, etc.
Independientemente de su locación, los operadores, llevaban las instrucciones de
cómo debían colocarse los rotores, y las posiciones cambiaban cada pocos días.

Estudios sobre las primeras computadoras
De 1945 a 1948 Turing vivió en Richmond, Londres, donde trabajó en el Laboratorio
Nacional de Física (NPL). En 1947 empezó a trabajar en el diseño del ACE (Automatic
Computer Engine o Motor de Computación Automática). Paralelamente, existía un
proyecto similar en Estados Unidos llamado EDVAC de Von Neumann. El ACE de Turing
se diferenciaba en que incluía la implementación de funciones aritméticas en circuitos
electrónicos. Su deseo era crear una máquina pudiera ser configurada para hacer
cálculos algebraicos, desencriptar códigos, manipular archivos y jugar al ajedrez.
Aunque diseñar el ACE era factible, el secretismo que reinaba durante la guerra
desembocó en retrasos para iniciar el proyecto por lo que Turing se sintió
desilusionado

Tim Berners-Lee

conocido como Tim Berners-Lee, es un científico de la computación británica, conocido
por ser el padre de la World Wide Web. Estableció la primera comunicación entre un
cliente y un servidor usando el protocolo HTTP en noviembre de 1989. En octubre de
1994 fundó el Consorcio de la World Wide Web (W3C) con sede en el MIT, para
supervisar y estandarizar el desarrollo de las tecnologías sobre las que se fundamenta
la Web y que permiten el funcionamiento de Internet.
Ante la necesidad de distribuir e intercambiar información acerca de sus
investigaciones de una manera más efectiva, Berners-Lee desarrolló las ideas
fundamentales que estructuran la web. Él y su grupo crearon lo que por sus siglas en
inglés se denomina Lenguaje HTML (HyperText Markup Language) o lenguaje de
etiquetas de hipertexto, el protocolo HTTP (HyperText Transfer Protocol) y el sistema
de localización de objetos en la web URL (Uniform Resource Locator).
Es posible encontrar muchas de las ideas plasmadas por Berners-Lee en el proyecto
Xanadú (que propuso Ted Nelson) y el memex (de Vannevar Bush).

Desarrollo de su carrera
Berners-Lee trabajó en el CERN desde junio hasta diciembre de 1980. Durante ese
tiempo, propuso un proyecto basado en el hipertexto para facilitar la forma de
compartir y la puesta al día de la información entre investigadores. En este periodo
también construyó un programa llamado ENQUIRE que no llegó a ver la luz.7​
Después de dejar el CERN, en 1980, se fue a trabajar a la empresa de John Poole Image
Computer Systems Ltd., pero regresó al CERN otra vez en 1984.
En 1989, el CERN era el nodo de Internet más grande de Europa y Berners-Lee vio la
oportunidad de unir Internet y el hipertexto (HTTP y HTML), de lo que surgiría la World
Wide Web. Desarrolló su primera propuesta de la Web el 12 de marzo de 1989,8​ pero
no tuvo mucho eco, por lo que en 1990 y con la ayuda de Robert Cailliau, hicieron una
revisión que fue aceptada por su gerente, Mike Sendall. Usó ideas similares a las que

había usado en el sistema Enquire, para crear la World Wide Web, para esto diseñó y
construyó el primer navegador (llamado WorldWideWeb y desarrollado con
NEXTSTEP) y el primer servidor Web al que llamó httpd (HyperText Transfer Protocol
daemon).
El primer servidor Web se encontraba en el CERN y fue puesto en línea el 6 de agosto
de 1991. Esto proporcionó una explicación sobre lo que era el World Wide Web, cómo
uno podría tener un navegador y cómo establecer un servidor Web. Este fue también
el primer directorio Web del mundo, ya que Berners-Lee mantuvo una lista de otros
sitios Web aparte del suyo. Debido a que tanto el software del servidor como del
cliente fue liberado de forma gratuita desde el CERN, el corazón de Internet Europeo
en esa época, su difusión fue muy rápida. El número de servidores Web pasó de
veintiséis en 1992 a doscientos en octubre de 1995 lo que refleja cual fue la velocidad
de la difusión de internet.
En 1994 entró en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial
del Massachusetts Institute of Technology. Se trasladó a EE. UU. y puso en marcha el
W3C, que dirige actualmente. El W3C es un organismo internacional de
estandarización de tecnologías Web dirigido conjuntamente por el Instituto
Tecnológico de Massachusetts, el ERCIM francés y la Universidad de Keiō en Japón.
Este organismo decidió que todos sus estándares fuesen libres, es decir, que los
pudiese utilizar todo el mundo libremente sin coste alguno, lo que sin lugar a dudas
fue una de las grandes razones para que la Web haya llegado a tener la importancia
que tiene hoy en día.

Gordon Moore
Nacido en San Francisco, California el 3 de enero de 1929. Recibió una licenciatura en
química por la Universidad de California en Berkeley en 1950 y un doctorado en
química y física en el Instituto de Tecnología de California (Caltech) en 1954. Previo a
sus estudios en Berkeley, pasó sus primeros dos años de licenciatura en la Universidad
Estatal de San José donde conoció a su esposa Betty.
Se unió al egresado de Caltech William Shockley en el laboratorio de semiconductores
Shockley (división de Benchmark Instruments), pero se retiró junto con los "Traitorous
Eight" (ocho traidores), cuando Sherman Fairchild estuvo de acuerdo en apoyarlos y
crear la corporación de semiconductores Fairchild.
Fundó Intel en julio de 1968 junto a Robert Noyce, trabajando como Vicepresidente
ejecutivo hasta 1975 cuando se convirtió en presidente y ejecutivo en jefe. En abril de
1979, el Dr. Moore se convirtió en miembro de la junta directiva además de ejecutivo
en jefe, manteniendo ambas posiciones hasta abril de 1987, cuando dejó el puesto de
ejecutivo en jefe. Actualmente colabora como miembro emérito de la junta directiva.
En 2001 Moore y su esposa donaron 600 millones de dólares a Caltech, la mayor
donación jamás entregada a una institución de educación superior. Moore afirma que
con esto pretendía mantener a Caltech en el liderazgo de investigación y tecnología.
Fue miembro de la junta de Fideicomisarios de Caltech desde 1994 hasta el 2000 y
continúa siendo un fideicomisario hasta el momento.
En el 2003 , fue elegido como miembro de la American Association for the
Advancement of Science (“Asociación Estadounidense para el avance de la ciencia”).
La Biblioteca en el Centro para Ciencias Matemáticas de la Universidad de Cambridge,
fue nombrado en honor a él y su esposa Betty Irene Whitaker, así como el edificio de
laboratorios Moore (1996) en Caltech.
La ley que formuló precisaba que cada 24 meses, la potencia de los ordenadores se
duplicaría. Este desarrollo de las capacidades de los ordenadores, ha llevado a los
informáticos y, sobre todo, a los investigadores y trabajadores que emplean
herramientas informáticas en sus tareas, a tener que rediseñar sus dinámicas de
trabajo. En el campo de la Información y Documentación (por ejemplo), la capacidad
de almacenamiento, memoria y recuperación de datos, ha llevado a los
programadores e informatólogos a tener en cuenta esta ley en la actualización de sus
bases de datos, repositorios de información o catálogos automatizados.

Steve Job

más conocido como Steve Jobs, fue un empresario y magnate de los negocios en el
sector informático y de la industria del entretenimiento estadounidense. Fue
cofundador y presidente ejecutivo de Apple12​ y máximo accionista individual de The
Walt Disney Company.13​
Fundó Apple en 1976 junto con un amigo de la adolescencia, Steve Wozniak, con
ayuda del excompañero de Jobs en Atari, Ronald Wayne, en el garaje de su casa.
Aupado por el éxito del Apple II, Jobs obtuvo una gran relevancia pública, siendo
portada de Time en 1982.14​ Contaba 26 años y ya era millonario gracias a la exitosa
salida a bolsa de la compañía a finales del año anterior. La década de los 80 supuso la
entrada de potentes competidores en el mercado de los ordenadores personales, lo
que originó las primeras dificultades empresariales. Su reacción fue innovar, o mejor
dicho, implementar: a principios de 1984 su compañía lanzaba el Macintosh 128K, que
fue el primer ordenador personal que se comercializó exitosamente que usaba una
interfaz gráfica de usuario (GUI) y un ratón en vez de la línea de comandos. Después de
tener problemas con la cúpula directiva de la empresa que el mismo fundó,
renunció.15​ Jobs vendió entonces todas sus acciones, salvo una. Ese mismo año recibía
la Medalla Nacional de Tecnología del presidente Ronald Reagan, cerrando con este
reconocimiento esta primera etapa como emprendedor. Regresó en 1997 a la
compañía, que se encontraba en graves dificultades financieras, y fue su director
ejecutivo hasta el 24 de agosto de 2011.16​17​18​19​ En ese verano Apple sobrepasó a
Exxon como la empresa con mayor capitalización del mundo.20​
Durante los años 1990 transformó una empresa subsidiaria adquirida a Lucasfilm en
Pixar, que revolucionó la industria de animación con el lanzamiento de Toy Story. La
integración de esta compañía en Disney, de la que era proveedor, convertiría a Jobs en
el mayor accionista individual del gigante del entretenimiento. En el año de su muerte,
su fortuna se valoraba en 8300 millones de dólares21​ y ocupaba el puesto 110 en la
lista de grandes fortunas de la revista Forbes.
En su segunda etapa en Apple, también cambió el modelo de negocio de la industria
musical: aprobó el lanzamiento del iPod en 2001, y en 2003 la tienda online de música
de iTunes, que en siete años vendió más de 10 000 millones de canciones y dominó
completamente el negocio de música en línea, a un precio de 0,99 USD por canción
descargada.22​ Ya en 2009 lograba acaparar el 25 por ciento de la venta de música en
los Estados Unidos, y es la mayor tienda musical por volumen de ventas de la
historia.23​ Según el registro de patentes de los Estados Unidos, 323 patentes de Jobs
figuran a nombre de Apple.

Primeros años

Steve Jobs nació en San Francisco (California) en el año 1955,25​26​27​ fruto de la
relación entre Abdulfattah Jandali, un inmigrante sirio musulmán, luego doctorado en
ciencias políticas, y Joanne Carole Schieble, una estadounidense de ascendencia suiza y
alemana, por entonces dos jóvenes estudiantes universitarios que lo entregaron en
adopción a una pareja de clase media, Paul Jobs y Clara Hagopian, de origen
armenio.25​26​28​ Sus padres biológicos se casaron luego y tuvieron otra hija, la
novelista Mona Simpson, a quien Steve no conocería hasta la edad adulta.25​ En esa
nueva familia Steve creció junto a su otra hermana, Patty. Su padre adoptivo, Paul
Jobs, era maquinista en la compañía estatal de transporte ferroviario y su madre ama
de casa.26​
En 1961 la familia se trasladó a Mountain View,26​ una ciudad al sur de Palo Alto que
empezaba a convertirse en un centro importante de la industria de la electrónica. Allí
asistió a la escuela primaria Cupertino Middle School y a la secundaria Homestead H.S.,
también en Cupertino.28​ A Jobs le interesaban bastante la electrónica y los gadgets,
razón que le llevó a unirse a un club llamado Hewlett-Packard Explorer Club, donde
ingenieros de Hewlett-Packard mostraban a los jóvenes sus nuevos productos. Fue allí
donde Steve vio su primera computadora, a la edad de 12 años.26​ Quedó tan
impresionado que supo de inmediato que él quería trabajar con computadores
Inicios de Apple Computer
Debido a las exigencias de su contrato con Hewlett-Packard, Wozniak tuvo que dar a
conocer su intención de construir un computador personal a la empresa, que desechó
la idea por considerarla ridícula.33​ Fue así como en 1976 nació Apple Computer
Company.27​
Tras la consecución del primer computador personal, bautizado como Apple I, Jobs se
dedicó a su promoción entre otros aficionados a la informática, tiendas y ferias de
electrónica digital, llegando a vender unos 200 ejemplares. A partir de entonces, el
crecimiento de Apple fue notable. En tan solo 10 años, Apple se convirtió en una
empresa con 4.000 empleados y Jobs, con 27 años, era el millonario más joven de
1982. [cita requerida] Logo de Apple en 1977, creado por Rob Janoff con el tema de
los colores del arco iris utilizado hasta 1998.
A principios de 1983 vio la luz Lisa, el primer computador personal con Interfaz gráfica
del usuario diseñado especialmente para gente con poca experiencia en informática.
Su precio, más caro que el de la mayoría de ordenadores personales de la

competencia, no facilitó que el nuevo producto fuese precisamente un éxito de ventas,
perdiendo Apple aproximadamente la mitad de su cuota de mercado en favor de IBM.
En un intento por mantener la competitividad de la compañía, Steve Jobs, ya
convertido en ejecutivo, convenció a John Sculley, director ejecutivo de Pepsi-Cola,
para tomar las riendas de Apple.25​
En la conferencia anual de Apple del 24 de enero de 1984, Jobs presentó con grandes
expectativas, el Apple Macintosh, el primer ordenador personal de Apple con ratón.
Sin embargo Macintosh no alcanzó las expectativas comerciales esperadas.26​
Hacia finales de 1984 las diferencias entre Sculley y Jobs se iban haciendo cada vez más
insalvables, hasta el punto de deteriorarse la relación, principalmente por el proyecto
macintosh[cita requerida]. En mayo de 1985, en medio de una profunda
reestructuración interna que se saldó con el despido de 1200 empleados, Sculley
relegó a Jobs de sus funciones como líder de la división de Macintosh.28​34​
Steve nunca fue despedido, se tomó un sabático y aún era presidente del consejo.
Estaba fuera, nadie lo corrió, pero estaba fuera del proyecto de la Macintosh, que era
su sueño, y nunca me perdonó por eso. Después fundó NeXt y fue demandado por la
junta por contratar a ingenieros de Apple, pero en realidad nunca

Creación de NeXT Computer
Tras dejar Apple, a los 30 años de edad, decidió continuar su carrera empresarial en la
industria de la computación y fundó la empresa NeXT Computer Inc., con una inversión
de 7 millones de dólares. Reunió para el nuevo proyecto a 7 de sus antiguos
empleados en Apple: Bud Tribble, George Crow, Rich Page, Susan Barnes, Susan Kare y
Dan'l Lewin. En el plan de negocios se estableció que, al igual que se hacía en Apple, la

compañía vendiese al cliente no solo el hardware, sino también el sistema operativo y
parte del software de usuario.
La primera estación de trabajo de NeXT fue presentada el 12 de octubre
de 1988. Recibiría oficialmente el nombre de NeXT Computer, si bien fue
ampliamente conocida como El Cubo (The Cube, en idioma inglés) por su
distintiva caja de aleación de magnesio en forma de cubo.39​ El sistema
operativo de la nueva máquina fue bautizado como NeXTSTEP.
Las ventas de los computadores de NeXT fueron relativamente modestas,
con un total estimado de 50 000 unidades en los 10 años que estuvo
operativa la división de hardware.25​ Su sistema operativo orientado a
objetos y entorno de desarrollo fueron, en cambio, muy influyentes. A
pesar de su escasa penetración en el mercado, uno de estos equipos sirvió
para que el científico Tim Berners Lee creara el concepto de World Wide
Web que revolucionaría a la red Internet.40​
Como consecuencia, Jobs en 1993 centró la estrategia de su compañía en
la producción de software, cambiando el nombre de la empresa por el de
Next Software Inc. Uno de las decisiones más llamativas fue la venta de
equipos NeXT construidos alrededor de los microprocesadores Intel 486 y
SPARC.41​
Apple Computer anunció el 20 de diciembre de 1996 la adquisición de
NeXT Software por 400 millones de dólares con el fin de actualizar el
sistema operativo de las computadoras Macintosh,42​ después del fracaso
de la compañía con Copland, un proyecto que nunca llegó a terminarse.
Así, Steve Jobs volvió a formar parte de la compañía Apple.

muerte
Steve Jobs falleció en su casa de California a las 2 de la tarde del 5 de octubre de 2011,
a los 56 años, a consecuencia de un paro respiratorio derivado de las metástasis del
cáncer de páncreas que le fue descubierto en 2004,94​95​96​97​ por el que en 2009 había
recibido un trasplante de hígado.

conclusiones

En la actualidad vemos como la informática crece cada dia mas y
se apodera de las actividades que hacemos a diario, la
computadora se ha convertido en un instrumento indispensables
para las actividades del hombre. es por ello que resulta
indispensable conocer a fondo la computadora y sus diversos
componentes. entre sus componentes encontramos el hardware
y el software.
El hardware es la parte física del computador lo que podemos
ver y tocar. ejemplos de ellos son el monitor, cpu, teclado, ratón,
cornetas entre otros.
Una de las formas de clasificar el Hardware es en dos categorías:
por un lado, el "básico", que abarca el conjunto de componentes
indispensables necesarios para otorgar la funcionalidad mínima a
una computadora, y por otro lado, el Hardware
"complementario", que, como su nombre lo indica, es el utilizado
para realizar funciones específicas (más allá de las básicas), no
estrictamente necesarias para el funcionamiento de la
computadora.
Los 6 autores dejaron mucho de bueno marcaron su historia y
Ahora hay mejor tecnología basada a hechos antiguos que se
retoman y tiene mucho beneficio y saber manejarlo.

Bibliografía

https://es.wikipedia.org/.com

No hay comentarios: