Introducción
En el trabajo presentamos todos las Personalidades de la informática Moderna
Este tema pretende proporcionar al alumno conocimientos básicos sobre el funcionamiento de los usos de los personajes y sus inventos . Se atenderá tanto el funcionamiento de la parte física (hardware) como de la parte lógica (software). Si bien el resto de los temas se centrarán sobre la parte lógica, esto es, el desarrollo de software, hardware y software son dos componentes imprescindibles para que un sistema informático preste servicio a sus usuarios y, desde un punto de vista práctico, el uno sin el otro es completamente inservible. Por ello, para desarrollar software de calidad es imprescindible tener unos conocimientos mínimos acerca del hardware y su funcionamiento.
A lo largo de la humanidad se han vivido diferentes cambios ideológicos y culturales. Se han hecho grandes descubrimientos científicos y sobretodo tecnológicos. Estos últimos, sin duda alguna, son los que han vivido cambios mas intensos, mas revolucionarios, es decir mas innovadores .En este campo (el de la tecnología) es donde podemos ver que en las últimas décadas cada vez es más grande el número de científicos, investigadores, ingenieros, y en general todas aquellas personas que tengan que ver con los desarrollos de la tecnología, se han incorporado de manera rápida y estrepitosa a esta área, para contribuir, de alguna u otra manera, con los adelantos que darán la vuelta al mundo.
Dentro del campo de la tecnología podemos hablar de más de un millón de cosas nuevas, frescas, útiles, rápidas y eficientes para realizar cualquier trabajo que antes, el sólo pensar en su elaboración, causaba angustias y presiones para las personas que lo elaboraban, ya que a veces no lo podían terminar a tiempo o lo hacían pero con cierta fallas y deficiencias.
Enumerando las cosas que ha traído consigo el desarrollo de la tecnología podemos citar ejemplos como: los robots ,los teléfonos celulares, los satélites, las computadoras ,etc., éstas últimas muy eficaces para guardar cientos de datos, informes, archivos, también para introducirse en las redes de la información, correos electrónicos, realizar transferencias de dinero de una cuenta a otra, para llevar los datos contables de una empresa que realiza cientos de operaciones mercantiles diariamente, etc.
Estos personajes aportaron su capacidad y dejaron un legado de sus conocimientos.
Título:
Personalidades de la informática Moderna:
Larry Page, creador de Google:
Es un empresario estadounidense, creador junto con Serguéi Brin de Google (Alphabet). Es además, la décima persona más rica del mundo; se estima que tiene un patrimonio neto de 54,7 mil millones de dólares (2019).2 Actualmente se desempeña como CEO de la compañía Alphabet, una gigante empresa que engloba a Google y otras empresas de su ámbito.
Biografía
Page nació en East Lansing, Míchigan, Estados Unidos, el 26 de marzo de 1973. Es hijo de dos docentes universitarios, Gloria Page, profesora de programación en la Universidad de Míchigan y Carl V. Page, profesor de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Carolina del Norte en Chapel Hill y de la Universidad de Míchigan, un pionero y autoridad en el campo de la Inteligencia Artificial, prematuramente fallecido en 1996.3Desde los dos años de edad asistió en Lansing a una escuela del método Montessori. La pasión de Page por los ordenadores y la informática empezó a los seis años, y su interés por la tecnología y los inventos a los doce. Su ídolo juvenil fue Nikola Tesla.4 Siguiendo los pasos de sus padres, y bajo su auspicio, creó Google, una de las empresas más famosas que existen actualmente.
Durante su doctorado en Stanford conoció a Serguéi Brin. Juntos desarrollaron y pusieron en marcha el buscador Google, que empezó a funcionar en 1998. Google está basado en la tecnología patentada PageRank. Se dice que le pusieron este nombre al buscador por su semejanza con la palabra googol o gúgol (nombre de un número extremadamente grande, 10 elevado a la 100, o 10100).
El primer artículo que publicó fue aceptado por el periódico científico de ambos sobre Google, "The Anatomy of a Large-Scale Hypertextual Web Search Engine" (1998),5 figuró pronto entre los diez artículos más citados de todos los tiempos.6
Page fue presidente de Google junto con Serguéi Brin hasta 2001, año en que decidieron contratar a Eric Schmidt. Page dirige Google junto a Serguéi Brin y Schmidt.
A fecha 4 de abril de 2011 Eric Schmidt cesa su actividad como CEO de Google para dar paso a Larry Page.
Otros datos
Page ha dado conferencias en diversos foros internacionales, como el Foro Económico Mundial, la Conferencia de Tecnología, Entretenimiento y Diseño, la Cumbre sobre Tecnología del The Wall Street Journal, o el Club Commonwealth. Fue nombrado World Economic Forum Global Leader for Tomorrow (Líder Global para el Futuro del Foro Económico Mundial) en 2002, así como Young Innovator Who Will Create the Future (Joven Innovador Que Creará el Futuro) por la revista Technology Review del MIT. Miembro del National Advisory Committee (NAC) de la Facultad de Ingeniería de la Universidad de Míchigan, fue nombrado Innovator of the Year (Innovador del Año) por la revista Research and Development y fue elegido miembro de la Academia Nacional de Ingeniería en 2004.
En 2004, junto con Brin, recibió el Premio Marconi, y el 24 de octubre de 2008, en nombre de Google, el Premio Príncipe de Asturias de Comunicación y Humanidades.
Su hermano mayor, Carl Victor Jr., fue cofundador de eGroups, más tarde vendido a Yahoo.7
El 8 de diciembre de 2007, en la hawaiana isla Necker, Larry Page se casó con Lucinda (Lucy) Southworth, licenciada en ciencias biomédicas de las universidades de Pensilvania y Oxford.
Larry Page y Sergei Brin
Sede de Google en California
Logo
Serguéi Mijáilovich Brin:
(en ruso: Moscú, 21 de agosto de 1973) es un empresario e informático teórico estadounidense de origen ruso que, junto a Larry Page, fundó Google. En conjunto, Brin y Page aún mantienen el control de un 16% de la compañía. Es a su vez una de las personas más ricas del mundo, con una fortuna personal estimada en 55.1 miles de millones dólares a junio de 2018.
Brin emigró a Estados Unidos con su familia desde la Unión Soviética cuando contaba con apenas seis años de edad.4 Se licenció por la Universidad de Maryland, siguiendo los pasos de su abuelo y de su padre en el estudio de las matemáticas y las ciencias de la computación. Después de su graduación se trasladó a la Universidad de Stanford para doctorarse en ciencias de la computación gracias a una beca. Allí conoció a Larry Page, con quien más tarde entablaría amistad. En una habitación compartida desarrollaron gracias a la minería de datos un motor de búsqueda. El buscador se hizo popular en Stanford y suspendieron sus estudios para poner en marcha el futuro buscador de Google en un garaje alquilado. La empresa en pocos años tuvo un gran éxito a nivel mundial.
Brin está interesado en otras áreas y financia diversos proyectos de investigación y filantropía. The Economist lo describió como un «Hombre Ilustrado» y como alguien que pensaba que el conocimiento siempre es bueno, y sin duda siempre mejor que la ignorancia,5 una filosofía que puede aplicarse a la «misión» de Google de «organizar la información de todo el mundo y hacerla universal y útil para todo»;6 así, el lema no oficial que Google tiene es: no seas malvado.
Primeros años
Hijo de Eugenia Brin y del profesor de matemáticas Mijaíl Brin, emigró a Estados Unidos cuando tenía sólo 6 años.
Estudió en la Paint Branch Montessori School en Adelphi, Maryland. Su padre alentó su interés por las matemáticas, para las que siempre tuvo disposición.
Brin conoció a Larry Page durante unas jornadas de orientación para nuevos estudiantes en la Universidad de Stanford. Aunque inicialmente chocaron, no tardaron en conectar y comenzaron a compartir ideas. Les unía especialmente su interés matemático por la World Wide Web. Fruto de esta unión nacería en 1996 BackRub, el buscador predecesor de Google. El proyecto creció rápidamente y se dieron cuenta de que habían creado un magnífico motor de búsqueda, que aplicaron a la web con excelentes resultados. Optaron por dejar sus estudios en la Universidad y dedicarse por completo al buscador, solicitando ayudas económicas a profesores, familia y amigos. Compraron servidores y alquilaron un garaje en Menlo Park. La historia de Google Inc. había comenzado.
Mark Zuckerberg, creador de Facebook
Mark Elliot Zuckerberg (White Plains, Estados Unidos; 14 de mayo de 1984), conocido como Mark Zuckerberg, es un programador y empresario estadounidense, uno de los creadores y fundadores de Facebook. Para desarrollar la red, Zuckerberg contó con el apoyo de sus compañeros de la Universidad de Harvard, el coordinador de ciencias de la computación y sus compañeros de habitación Eduardo Saverin, Dustin Moskovitz y Chris Hughes. A abril de 2018, es el personaje más joven que aparece en la lista de multimillonarios de la revista Forbes, con una fortuna valorada en 73.200 millones de dólares, lo que lo clasifica como la quinta persona más rica del mundo.1
Desde el 2010, la revista Time ha nombrado a Zuckerberg entre las 100 personas más ricas e influyentes del mundo como parte de su Persona del Año. A mediados del 2018, Forbes lo colocó como la quinta persona más rica del mundo
Estudios
Ingresó en la Universidad de Harvard en 2003 y formó parte de la fraternidad Alpha Epsilon Pi. Empezó a desarrollar programas como el Coursematch, que permitía a los estudiantes ver la lista de otros compañeros de clase o una web en la que se podía calificar a las estudiantes de la universidad, Facemash.com. Por ello, el Departamento de Servicios Informáticos de Harvard llevó a Zuckerberg ante la administración con cargos de infracción de la seguridad informática y violación de las políticas de privacidad y de propiedad intelectual.4
La Universidad de Harvard insistió en que Zuckerberg había hackeado el internet de la universidad para alterar imágenes de los estudiantes sin autorización y para su propio beneficio,[cita requerida] algo que era falso.[cita requerida] En una biografía no autorizada sobre él, se sugiere que Zuckerberg, al sentirse rechazado como estudiante, hizo pública la lista completa de las imágenes de sus compañeras universitarias, las cuales extrajo del Directorio de estudiantes.
Zuckerberg declaró que pensaba que la información debía ser libre y abierta al público. Las acciones tomadas por el Consejo Administrativo de Harvard en este asunto no se hicieron públicas. En 2004 Zuckerberg creó Facebook y se ausentó un año de la Universidad, hasta que un año después abandonó la carrera.
Más tarde volvió a retomar sus estudios y en 2017, finalmente se graduó en Ciencias de la Computación, dando el discurso de cierre en la Universidad de Harvard.
El 24 de octubre de 2007, Facebook y Microsoft anunciaron que este último había comprado el 1,6 % de las acciones de la red social. Algunos han mencionado que dicho contrato revalorizó a Facebook en 1500 millones de dólares, aproximadamente.[cita requerida] Sin embargo, una extensión de las relaciones entre ambos hasta 2011 incrementaría el precio.
Plataforma Facebook
kerberg, durante la Conferencia G8, anunció el lanzamiento de la plataforma de Facebook, un ambiente de desarrollo para construir aplicaciones sociales dentro de Facebook. Después del lanzamiento de la Plataforma de Facebook, tanto él como la red social comenzaron a ser ampliamente populares en la prensa, incluida una historia escrita por Newsweek5 en agosto.
Aparición en medios
Zuckerberg en Los Simpson
Zuckerberg apareció en el 2º episodio de la vigésimo segunda temporada de Los Simpson. El episodio se llama Loan-a-Lisa y fue transmitido el 3 de octubre de 2010 en los Estados Unidos. En el episodio, Lisa invierte en la nueva aventura empresarial de Nelson, pero se da cuenta de que el éxito instantáneo de su amigo hace que éste abandone la escuela. Lisa le presenta a Mark Zuckerberg, solo para descubrir que él también abandonó la Universidad.
The Social Network
Artículo principal: The Social Network
Es una película dirigida por David Fincher que fue estrenada el 1 de octubre de 2010 en Estados Unidos. Está basada en el libro Multimillonarios por accidente, de Ben Mezrich, y narra la historia de Facebook. Jesse Eisenberg interpreta a Mark Zuckerberg. La primera exhibición de la película se realizó al comenzar la cuadragésima octava edición del Festival de Cine de Nueva York el 24 de septiembre de 2010.10.
Zuckerberg en South Park
Zuckerberg aparece en el episodio 14 - temporada 21, en el episodio llamado Precuela de la franquicia. En el episodio Mark es invitado por los padres del pueblo para advertir sobre los peligro en las redes lo cual no realiza y solo da una charla hablando de sus habilidades. Mark no quiere salir del pueblo y termina fastidiando a los pobladores. Coon y Amigos descubren que es socio del Profesor Caos el cual lo convenció para destruirlos.
Jeff Bezos, fundador de Amazon
Jeff Preston Bezos (nacido como Jeffrey Preston Jorgensen) (Albuquerque, Nuevo México, 12 de enero de 1964) es un empresario estadounidense. Es el fundador y director ejecutivo de Amazon.
En 2015 fue el quinto hombre más rico del mundo, y en 2017 alcanzó el primer puesto de la lista Forbes.3Desde mediados de 2018 hasta fines de 2019, se mantuvo con el puesto de la persona más rica del mundo,4 siendo la primera persona en superar los 100 000 millones de dólares en la lista Forbes de los multimillonarios del mundo.1En 2019, su fortuna se aproximó a la cifra de los 108 700 millones,4 siendo así el empresario milmillonario que más ha incrementado su fortuna.
Carrera
Estudió Ciencias de la Computación e Ingeniería Eléctrica en la Universidad de Princeton, donde se graduó en 1986. Trabajó para una compañía de fibra óptica y luego en un hedge fund de Wall Street.
Jeff Bezos realizó diversos trabajos relacionados con su formación, pero no fue hasta 1994 cuando decidió abrirse camino de manera independiente fundando en aquel momento una librería en línea llamada Cadabra.com, abierta oficialmente el 16 de julio de 1995, con una inversión inicial de 1.300.000 dólares. Sus padres contribuyeron invirtiendo mucho dinero en la empresa de su hijo.
Desde el principio, Jeff Bezos había logrado tener una visión de en lo que se convertiría Internet en pocos años, apostando por la masificación de la red, la cual muy pronto tendría presencia en todos los mercados. Por ello, le pareció una idea brillante poder ofrecer un catálogo de libros en línea en el que estuvieran compiladas las diferentes publicaciones de las editoras, y a través del cual el público podría buscar los libros disponibles dentro de un stock, para finalmente pedirlos de manera directa a través de Internet.
Aquel primer proyecto, que aún no había sido llamado Amazon, tuvo su primera oficina en el garaje de una casa que habían alquilado Jeff y su esposa Mackenzie en la ciudad de Seattle. Allí instalaron los tres servidores con los que comenzaron a procesar la información del sitio.
Al poco tiempo de que la empresa estuviese en funcionamiento, decidió rebautizarla con el nombre de Amazon. Algunos señalan que el cambio de identidad se debió pura y exclusivamente al río Amazonas, mientras que otros aseguran que fue una simple estrategia de posicionamiento, teniendo en cuenta que en aquella época se difundían las listas de páginas web ordenados alfabéticamente, motivo por el cual Amazon comenzó a aparecer en los primeros lugares de los buscadores.
Disponiendo de más de 200 000 títulos al comenzar con la empresa, y siendo un servicio novedoso que permitía que los usuarios pudieran adquirir libros a través de un contacto vía correo electrónico, Amazon no tardó en convertirse en un verdadero éxito.
En pocos meses la web logró alcanzar más de 2000 visitantes diarios, y al año siguiente logró multiplicar por 25 dicha cifra.
Año Millones Año Millones
2000 8.050 2010 12.601
2001 2.000 2011 18.900
2002 1.500 2012 23.200
2003 2.500 2013 28.900
2004 5.100 2014 30.500
2005 4.800 2015 43.800
2006 4.300 2016 59.200
2007 8.700 2017 95.800
2008 8.200 2018 112.000
2009 10.800 2019 125.000
El empresario tenía entonces 30 años y llevaba un año casado con MacKenzie, también graduada en Princeton (de quien se separó a principios de este año).
"Quería dejar mi trabajo e irme a hacer esta locura, aunque no fuera a funcionar porque la mayoría de las startups no lo hacen. MacKenzie me animó. Siempre quise ser inventor y ella quería que siguiera mi pasión", contó.
"Yo tenía un jefe al que admiraba. Le conté la idea. Me llevó a dar un largo paseo en Central Park, me escuchó y finalmente me dijo que sonaba como una gran idea, pero que sería todavía mejor si fuera para una persona que no tuviera ya un buen trabajo.
"Esa lógica tenía sentido y me convenció para que pensara en ello 48 horas antes de tomar una decisión. Era una elección difícil, pero decidí que tenía que intentarlo.
Dennis Ritchie, creador del Lenguaje C
(9 de septiembre de 1941 - 12 de octubre de 2011) fue un científico de la computación estadounidense.1
Colaboró en el diseño y desarrollo de los sistemas operativos Multics y Unix, así como el desarrollo de varios lenguajes de programación como el C, tema sobre el cual escribió un célebre clásico de las ciencias de la computación junto a Brian Wilson Kernighan: El lenguaje de programación C.
Recibió el Premio Turing de 1983 por su desarrollo de la teoría de sistemas operativos genéricos y su implementación en la forma del sistema Unix. En 1998 le fue concedida la Medalla Nacional de Tecnología de los Estados Unidos de América. El año 2007 se jubiló, siendo el jefe del departamento de Investigación en software de sistemas de Alcatel-Lucent.
Premios
Premio NEC C&C. En 1979, Dennis Ritchie y Ken Thompson recibieron el Premio NEC C&C por su contribución en el campo de los sistema operativos genéricos y el desarrollo del sistema operativo UNIX.
Premio Turing. En 1983, Ritchie y Ken Thompson recibieron en conjunto el Premio Turing por su desarrollo de la teoría genérica de sistemas operativos y específicamente por la implementación del sistema operativo UNIX. La conferencia de Ritchie en el Premio Turing fue titulada "reflexiones en Investigación de Software".
Medalla IEEE Richard W. Hamming. En 1990, tanto Ritchie como Ken Thompson recibieron la Medalla IEEE Richard W. Hamming del Institute of Electrical and Electronics Engineers (IEEE), "por la creación del sistema operativo UNIX y del lenguaje de programación C".
Medalla Nacional de Tecnología. El 21 de abril de 1999, Thompson y Ritchie recibieron en conjunto la Medalla Nacional de Tecnología de 1998 del presidente Bill Clinton por co-inventar el sistema operativo UNIX y el lenguaje de programación C que juntos han llevado a enormes avances en hardware de computadoras, software, y sistemas de red, y estimularon el crecimiento de una industria entera, por lo tanto realzando el liderazgo norteamericano en la era de la información.
Premio de Japón. En 2011, Dennis Ritchie, junto con Ken Thompson, fue galardonado con el Premio Japón para Información y Comunicaciones por el trabajo pionero en el desarrollo del sistema operativo UNIX
Muerte
Murió a la edad de 70 años la noche del miércoles 12 de octubre de 2017 en compañía de su familia. Su amigo Robert Pike, fue el primero en dar la noticia a través de la red social Google+
Legado
Tras el fallecimiento de Ritchie, el historiador Paul E. Ceruzzi afirmó:9
En una entrevista anterior a su fallecimiento, su colega de toda la vida Brian Kernighan dijo que Ritchie nunca esperó que el C alcanzara tanta relevancia.10 Kernighan contó al New York TImes que "Las herramientas que Dennis construyó - Y sus descendientes directos - hacen funcionar prácticamente todo hoy en día."11 Kernighan recordó a los lectores la importancia que el C y el UNIX tienen en el desarrollo de los grandes proyectos posteriores, como por ejemplo el iPhone.12 Siguieron otros testimonios de su influencia.131415
A su muerte, un redactor comparó la importancia relativa de Steve Jobs y Ritchie, concluyendo: "El trabajo de Ritchie representó un papel clave en el desarrollo de la revolución tecnológica de los últimos cuarenta años - incluyendo la tecnología sobre la cual Apple ha construido su fortuna." Otro comentarista dijo, "Ritchie, además, inventó y coinventó dos tecnologías de software claves que constituyen el ADN de efectívamente cada producto de software que usamos directa o indirectamente en la actualidad. Suena a exageración, pero realmente es cierto." Otro dijo, "muchos en las ciencias informáticas y campos relacionados conocen la importancia de Ritchie para el crecimiento y desarrollo de, bueno, todo lo relacionado con la informática..."18
La distribución Fedora 16, que se liberó un mes después de su muerte, está dedicada a su memoria.19 FreeBSD 9.0, publicada el 12 de enero de 2012, también se dedicó a su recuerdo.20
Alan Turing, padre de la Computación
Fue un matemático, lógico, Informático teórico, criptógrafo, filósofo, biólogo teórico, maratoniano y corredor de ultradistancia británico.
Es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión que hoy es ampliamente aceptada como la tesis de Church-Turing (1936).
Durante la segunda guerra mundial, trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma, y durante un tiempo fue el director de la sección Naval Enigma de Bletchley Park. Se ha estimado que su trabajo acortó la duración de esa guerra entre dos y cuatro años.6 Tras la guerra, diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Mánchester.
En el campo de la inteligencia artificial, es conocido sobre todo por la concepción del test de Turing (1950), un criterio según el cual puede juzgarse la inteligencia de una máquina si sus respuestas en la prueba son indistinguibles de las de un ser humano.
La carrera de Turing terminó súbitamente tras ser procesado por homosexualidad en 1952. Dos años después de su condena, murió —según la versión oficial por suicidio; sin embargo, su muerte ha dado lugar a otras hipótesis, incluida la del asesinato—. El 24 de diciembre de 2013, la reina Isabel II promulgó el edicto por el que se exoneró oficialmente al matemático, quedando anulados todos los cargos en su contra.
Su infancia
El matemático británico pasó gran parte de su infancia en la India, dado que su padre trabajaba en la Administración Colonial del país. Desde muy pequeño Turing mostró un gran interés por la lectura (se cuenta que aprendió a leer por sí solo en tres semanas), por los números y los rompecabezas. Sus padres lo inscribieron en el colegio St. Michael cuando tenía seis años; su profesora se percató enseguida de la genialidad de Turing. Sus ansias de conocimiento y experimentación llegaban hasta tal punto que a los ocho años, atraído por la química, diseñó un pequeño laboratorio en su casa. Su carrera escolar estuvo marcada, por un lado, por sus aptitudes y su facilidad por las matemáticas y, por el otro, por su carácter inconformista que le llevaba a seguir sus propias ideas y apartarse del rígido (e ilógico, según su parecer) sistema educativo.
Estudios
Entre enero de 1922 y 1926, Turing estudió en la preparatoria Hazelhurst, una escuela independiente en el pueblo de Frant en Sussex (hoy East Oriental).10
En 1926, con catorce años, ingresó en el internado de Sherborne en Dorset. Su primer día de clase coincidió con una huelga general en Inglaterra, pero su determinación por asistir a clase era tan grande que recorrió en solitario, con su bicicleta, los más de 96 km que separaban Southampton de su escuela, pasando la noche en una posada. Tal hazaña fue recogida en la prensa local.
La inclinación natural de Turing hacia la matemática y la ciencia no le atrajo el respeto de sus profesores de Sherborne, cuyo concepto de educación hacía mayor énfasis en los clásicos. En la escuela de Sherbone, ganó la mayor parte de los premios matemáticos que se otorgaban y, además, realizaba experimentos químicos por su cuenta aunque la opinión del profesorado respecto a la independencia y ambición de Turing no era demasiado favorable. A pesar de ello, Turing continuó mostrando una singular habilidad para los estudios que realmente le gustaban, y llegó a resolver problemas muy avanzados para su edad (16 años) sin ni siquiera haber estudiado cálculo elemental.Tesis Church-Turing
Artículo principal: Tesis de Church-Turing
La tesis de Church-Turing formula hipotéticamente la equivalencia entre los conceptos de función computable y máquina de Turing, que expresado en lenguaje corriente vendría a ser: «Todo algoritmo es equivalente a una máquina de Turing». No es en sí un teorema matemático: es una afirmación formalmente indemostrable, una hipótesis que, no obstante, tiene una aceptación prácticamente universal.
La tesis Church-Turing postula que cualquier modelo computacional existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de Turing.
La máquina de Turing
Artículo principal: Máquina de Turing
En su estudio Los números computables, con una aplicación al Entscheidungsproblem (publicado el 28 de mayo de 1936), Turing reformuló los resultados obtenidos por Kurt Gödel en 1931 sobre los límites de la demostrabilidad y la computación, sustituyendo al lenguaje formal universal descrito por Gödel por lo que hoy se conoce como máquina de Turing, unos dispositivos formales y simples. Turing demostró que dicha máquina era capaz de resolver cualquier problema matemático que pudiera representarse mediante un algoritmo. Las máquinas de Turing siguen siendo el objeto central de estudio en la teoría de la computación. Llegó a probar que no había ninguna solución para el problema de decisión, Entscheidungsproblem, demostrando primero que el problema de la parada para las máquinas de Turing es irresoluble: no es posible decidir algorítmicamente si una máquina de Turing dada llegará a pararse o no. Aunque su demostración se publicó después de la demostración equivalente de Alonzo Church respecto a su cálculo lambda, el estudio de Turing es mucho más accesible e intuitivo.20 También fue pionero con su concepto de «máquina universal (de Turing)», con la tesis de que dicha máquina podría realizar las mismas tareas que cualquier otro tipo de máquina. Su estudio también introduce el concepto de números definibles.
Máquinas oracle
Artículo principal: Máquina oracle
La mayor parte de 1937 y 1938 la pasó en la Universidad de Princeton, estudiando bajo la dirección de Alonzo Church. Entre 1938 y 1939 volvió a Inglaterra y estudió filosofía de las matemáticas. En 1938 obtuvo el Doctorado en Princeton; en su discurso introdujo el concepto de hipercomputación, en el que ampliaba las máquinas de Turing con las llamadas máquinas oracle, las cuales permitían el estudio de los problemas para los que no existe una solución algorítmica.
Tras su regreso a Cambridge en 1939, asistió a las conferencias de Ludwig Wittgenstein sobre las bases de las matemáticas. Ambos discutieron y mantuvieron un vehemente desencuentro, ya que Turing defendía el formalismo matemático y Wittgenstein criticaba que la matemática estaba sobrevalorada y no descubría ninguna verdad absoluta.
Análisis criptográfico (desciframiento de códigos)
El Bombe replicaba la acción de varias máquinas Enigma.
Un día después de la declaración de guerra de Gran Bretaña, en septiembre de 1939, Turing fue convocado a Bletchley Park, donde se encontraba el Servicio Británico de Descifrado. Las nueve mil personas que trabajaban allí, se dedicaron a intentar interpretar las comunicaciones alemanas cifradas en código morse.
El cifrado lo hacían a través de una máquina de sistema rotatorio llamada Enigma (máquina). Enigma había sido inventada en 1918 por Arthur Scherbius. Era similar a una máquina de escribir, en la cual cada vez que una letra era pulsada, era sustituida por otra mediante el uso de tres rotores internos (las máquinas militares llegaron a usar cinco), cuyo resultado era más de diez mil billones de configuraciones distintas. Debido al carácter portátil de la máquina, los operadores podían estar ubicados en los puestos de mando, interior de los tanques, submarinos, en bombardeos, etc. Independientemente de su locación, los operadores, llevaban las instrucciones de cómo debían colocarse los rotores, y las posiciones cambiaban cada pocos días.
Estudios sobre las primeras computadoras
El test de Turing es una prueba que propuso Alan Turing buscando una manera de demostrar la existencia de inteligencia en una máquina.
De 1945 a 1948 Turing vivió en Richmond, Londres, donde trabajó en el Laboratorio Nacional de Física (NPL). En 1947 empezó a trabajar en el diseño del ACE (Automatic Computer Engine o Motor de Computación Automática). Paralelamente, existía un proyecto similar en Estados Unidos llamado EDVAC de Von Neumann. El ACE de Turing se diferenciaba en que incluía la implementación de funciones aritméticas en circuitos electrónicos. Su deseo era crear una máquina pudiera ser configurada para hacer cálculos algebraicos, desencriptar códigos, manipular archivos y jugar al ajedrez. Aunque diseñar el ACE era factible, el secretismo que reinaba durante la guerra desembocó en retrasos para iniciar el proyecto por lo que Turing se sintió desilusionado.
Tiempo más tarde creó el Abbreviated Code Instruction, que dio origen a los lenguajes de programación. En 1947 se tomó un año sabático en Cambridge, tiempo durante el cual escribió un trabajo pionero sobre la inteligencia artificial que no fue publicado en vida. En 1948, con la ayuda de Frederic Calland Williams, se dio, por primera vez, la demostración del principio de la máquina de Turing.
Mientras se encontraba en Cambridge y a pesar de su ausencia, se siguió construyendo el prototipo piloto del ACE, que ejecutó su primer programa en mayo de 1950. Aunque la versión completa del ACE de Turing jamás fue construida, el diseño de otras computadoras en todo el mundo le debió mucho a su concepción.
Prueba de Turing
Artículo principal: Prueba de Turing
Estatua del autor y su retrato de fondo.
La prueba de Turing es un método para determinar si una máquina puede pensar
Nace de un juego de imitación, en donde hay tres personas: un interrogador, un hombre y una mujer. El interrogador está separado de los otros dos, y solo puede comunicarse con ellos a través de un lenguaje que entiendan. El objetivo del interrogador es descubrir quién es la mujer, y quién es el hombre, mientras que el de los otros dos, es convencerlo que son la mujer. En su artículo de 1950, «Computing machinery and intelligence», Turing sustituye a uno de los interrogados por una computadora y cambia los objetivos del juego: reconocer a la máquina.
Primer programa de ajedrez por computadora
Artículo principal: Ajedrez por computadora
Alan Turing en 1951.
Entre 1948 y 1950 en conjunto con un antiguo compañero, D. G. Champernowne, empezó a escribir un programa de ajedrez para un ordenador que aún no existía. En 1952 trató de implementarlo en el Ferranti Mark 1, pero por falta de potencia, el ordenador no fue capaz de ejecutar el programa. En su lugar Turing jugó una partida en la que reprodujo manualmente los cálculos que hubiera hecho el ordenador, costando alrededor de hora y media en efectuar un movimiento. Una de las partidas llegó a registrarse, y el programa perdió frente a un colega de Turing, Alick Glennie. Su test fue significativo, característicamente provocativo y una gran contribución para empezar el debate alrededor de la inteligencia artificial que aún hoy continúa.
Estudios sobre cibernética
Artículo principal: Cibernética
Trabajó junto a Norbert Wiener en el desarrollo de la cibernética. Esta rama de estudios se genera a partir de la demanda de sistemas de control que exige el progresivo desarrollo de las técnicas de producción a partir del siglo XX. La cibernética pretende establecer un sistema de comunicación entre el hombre y la máquina como premisa fundamental para administrar los sistemas de control. Sus estudios profundizaron en esta relación estableciendo el concepto de interfaz y cuestionando los límites de simulación del razonamiento humano.
Estudios sobre la formación de patrones y la biología matemática
Artículo principal: Patrones de Turing
Turing trabajó desde 1952 hasta que falleció en 1954 en la biología matemática, concretamente en la morfogénesis. Publicó un trabajo sobre esta materia titulado «Fundamentos químicos de la morfogénesis» en 1952. Su principal interés era comprender la filotaxis de Fibonacci, es decir, la existencia de los números de Fibonacci en las estructuras vegetales. Utilizó ecuaciones de reacción-difusión que actualmente son cruciales para entender la formación de patrones en el campo de biología del desarrollo ontogenético (embriología). Sus trabajos posteriores no se publicaron hasta 1992 en el libro Obras completas de A. M. Turing.
Turing en la música
El dúo musical Matmos publicó en 2006 un EP de tres canciones llamado For Alan Turing.46 En uno de sus temas, una de las máquinas Enigma originales es sampleada.
El grupo Hidrogenesse publicó en 2012 su disco Un dígito binario dudoso. Recital para Alan Turing, que también está dedicado al matemático.
La banda madrileña Nostalghia publicó a finales de enero de 2019 el álbum Sociedad Turing en alusión al británico Turing en la música
El dúo musical Matmos publicó en 2006 un EP de tres canciones llamado For Alan Turing.46 En uno de sus temas, una de las máquinas Enigma originales es sampleada.
El grupo Hidrogenesse publicó en 2012 su disco Un dígito binario dudoso. Recital para Alan Turing, que también está dedicado al matemático.
La banda madrileña Nostalghia publicó a finales de enero de 2019 el álbum Sociedad Turing en alusión al británico.
Linus Torvalds, creador de Linuxes
un ingeniero de software finlandés-estadounidense,2 conocido por iniciar y mantener el desarrollo del kernel (en español, núcleo) Linux, basándose en el sistema operativo libre Minix creado por Andrew S. Tanenbaum y en algunas herramientas, varias utilidades y los compiladores desarrollados por el proyecto GNU. Actualmente es responsable de la coordinación del proyecto.
Creación de Linux
En Finlandia, Linus Torvalds, por entonces estudiante de Ciencias de la Computación de la Universidad de Helsinki, decidió realizar la entonces cuantiosa inversión de 3500 dólares estadounidenses para adquirir un nuevo ordenador con el microprocesador 80386 de Intel, el cual funcionaba a 33 MHz y tenía 4 MB de memoria RAM. El pago lo realizaría a plazos, pues no disponía de tal cantidad de dinero en efectivo.
Normalmente, este ordenador lo usaba para tener acceso por línea telefónica a la red informática de su Universidad, pero debido a que no le gustaba el sistema operativo con el cual trabajaba, denominado Minix, decidió crear uno él mismo. Inicialmente, escribió un programa con lenguaje de bajo nivel prescindiendo de Minix. En los primeros intentos, consiguió arrancar el ordenador y ejecutar dos procesos que mostraban la cadena de caracteres “AAAAABBBBB”. Uno lo utilizaría para leer desde el módem y escribir en la pantalla, mientras que el otro escribiría al módem y leería desde el teclado. Inicialmente, el programa arrancaba desde un disquete.
La siguiente necesidad que tuvo fue la de poder descargar y subir archivos de su universidad, pero para implementar esta funcionalidad en el software emulador era necesario crear un controlador de disco. Así que después de un trabajo continuo y duro, creó un controlador compatible con el sistema de archivos de Minix. En ese momento, se percató de que estaba creando algo más que un simple emulador de terminal, así que, emprendió la tarea de crear un sistema operativo partiendo de cero.
De forma privada, Linus nombraba Linux a su nuevo sistema, pero cuando decidió hacer una presentación pública pensó que era demasiado egocéntrico llamarlo así y propuso llamarlo Freax, aunque después se le siguió conociendo como Linux, práctica que perdura hasta ahora.
Después de anunciar el 25 de agosto de 1991 su intención de seguir desarrollando su sistema para construir un reemplazo de Minix, el 17 de septiembre sube al servidor de FTP proporcionado por su universidad la versión 0.01 de Linux con 10 000 líneas de código. A partir de ese momento Linux empezó a evolucionar rápidamente.
Autoría y marca registrada
A partir de 2006, se estima que aproximadamente el dos por ciento del kernel de Linux fue escrito por el propio Torvalds. 7 Debido a que miles de personas han contribuido al kernel de Linux, este porcentaje es una de las mayores contribuciones al mismo. Sin embargo, declaró en 2012 que su propia contribución personal ahora es principalmente un código de fusión escrito por otros, con poca programación. 8 Torvalds conserva la máxima autoridad para decidir qué nuevo código se incorpora al núcleo estándar de Linux. 9
Torvalds posee la marca registrada "Linux" y supervisa su uso, principalmente a través del Linux Mark Institute.
Jimmy Wales, fundador de Wikipedia
es un empresario de Internet estadounidense, cofundador y promotor, junto a Larry Sanger, de Wikipedia, una enciclopedia basada en el concepto wiki y el modelo de software libre. Fue fundador también de Nupedia, antecesora de Wikipedia, y junto con Tim Shell de la compañía Bomis. También fue cofundador de la empresa con fines de lucro Wikia, junto con Angela Beesley. Se graduó en las universidades de Auburn y Alabama.
Wales es presidente emérito de la Fundación Wikimedia, una fundación sin fines de lucro con sede en San Francisco. El trabajo de Wales creando y desarrollando Wikipedia, actualmente la enciclopedia más grande del mundo, motivó a que la revista Time lo incluyera en 2006 en su lista de las 100 personas más influyentes del mundo, en la categoría de Científicos y Pensadores.
Carrera de inversionista
Entre 1994 y 2000 Wales trabaja como director de investigación en el Chicago Options Associates. Hace fortuna especulando sobre la fluctuación de las tasas de intereses y de cambio.4 Según Daniel Pink de la revista Wired, gracias a la especulación sobre las tasas de intereses y fluctuaciones de las monedas extranjeras dice haber ganado bastante dinero como para hacer vivir a su pareja por el resto de su existencia.
Bomis.com y Nupedia.com
En 1996 uno de los proyectos que emprende es la creación de Bomis, (actualmente no está disponible) un motor de búsqueda erótico. Wales describe Bomis como «un motor de búsqueda, más bien destinado a los jóvenes»nota 2 que a menudo vendía fotos eróticas parecidas a las de la revista Maximal con mujeres muy ligeramente vestidas. En una entrevista de 2007, declara que en 1999 realiza un estudio y luego crea un computador que permite producir una enciclopedia multilingüe en línea, sin embargo demasiado lenta para ser utilizada. En marzo de 2000 Jimmy Wales funda y financia (gracias a Bomis) Nupedia, un proyecto de enciclopedia libre de naturaleza abierta y corregida por pares. Contrata para ello a Larry Sanger como redactor jefe. Jimmy Wales desea al comienzo una calidad comparable a las enciclopedias profesionales del mercado con redactores libres seleccionados, pero su rareza causa el cierre de Nupedia el 26 de septiembre de 2003 con tan solo 24 artículos terminados y 74 en desarrollo
Posición con respecto a Wikipedia
En 2006, Wales observó que aproximadamente 50 % de las contribuciones realizadas en Wikipedia eran hechas por el 0,7 % de los wikipedistas, es decir una comunidad restringida a 524 voluntarios: «Conozco a cada uno de ellos y cada uno conoce a los demás». Para administrar el sitio, estima que «este es el grupo, de aproximadamente una centena de personas, que realmente cuentan».
Según Adèle Smith de Le Figaro, Jimmy Wales habría dicho que no hay «diferencia entre un profesor de Harvard y un estudiante siempre que el artículo sea bueno» pero también que «Nosotros no somos democráticos, nuestros lectores corrigen los artículos, aunque somos de hecho, esnobs. Nuestra comunidad prefiere los contribuidores con un profundo conocimiento y estima que algunos son idiotas que no debieran escribir en Wikipedia»,26 teniendo en cuenta una respuesta de Jimmy Wales a la pregunta «El mayor error de Wikipedia» en una entrevista en The New York Times en 2007.
Steve Wozniak, inventor de Apple
también conocido como "Woz", es un ingeniero, filántropo, empresario e inventor estadounidense, cofundador de la compañía Apple. Se le considera uno de los padres de la revolución de las computadoras, habiendo contribuido significativamente a la invención de una computadora personal (PC, personal computer) en los años 1970. Wozniak fundó Apple Computer (ahora Apple Inc.) junto con Steve Jobs en 1976. A mediados de la década de 1970, creó la computadora Apple I y Apple II. Apple II ganó gran popularidad y con el tiempo, se convirtió en la computadora más vendida en los años 1970 y principios de 1980.
El nacimiento de Apple
La primitiva computadora Altair no tenía pantalla ni almacenamiento. Recibía los comandos a través de una serie de interruptores y un único programa requería de miles de flip-flops sin error…
Altair era genial para los amantes de la informática, pero no era fácil de manejar para el gran público. Ni siquiera venía ensamblado. Por otra parte, la computadora de Woz, llamado Apple I, era una unidad completamente ensamblada y funcional que contenía un microprocesador de 25 dólares, el MOS 6502 en una placa base con un único circuito con ROM. El 1 de abril de 1976 Jobs y Wozniak crearon la empresa Apple. Wozniak dejó su trabajo en Hewlett-Packard y se convirtió en vicepresidente encargado de la investigación y del desarrollo de Apple. El Apple I tenía un precio de 500 dólares, Jobs y Wozniak vendieron sus primeros 50 computadoras a un comerciante local, el cual las revendió a 666,66 dólares.6
Ahora, Wozniak podía dedicarse a tiempo completo a reparar las deficiencias del Apple I y a añadirle una mayor funcionalidad. Su nuevo diseño pretendía conservar las características más importantes del anterior: simplicidad y utilidad. Woz introdujo gráficos de alta resolución en el Apple II. Su computadora podía mostrar ahora imágenes en vez de únicamente letras y números.
Reconocimientos
Steve Wozniak recibió la Medalla Nacional de Tecnología de manos del presidente de los Estados Unidos de América en 1985. En septiembre del año 2000 Steve Wozniak fue investido en la galería de la fama de inventores nacionales.
En 1997 fue nombrado miembro del museo de historia de la informática. Wozniak fue donante y benefactor del San José’s Children Discovery Museum (y la calle frente a este museo recibió el nombre de Woz Way en su honor). Desde que dejara Apple Computer, Woz ha proporcionado todo el dinero, así como una gran parte del soporte técnico del distrito local de Los Gatos School (el distrito en el que vive y en el que sus hijos van al colegio).
En 2001 Woz fundó Wheels of Zeus, cuyo acrónimo es “WoZ”, una empresa que crea tecnología GPS sin cables con el fin de «ayudar a la gente corriente a encontrar las cosas de todos los días». En ese mismo año, se unió a la directiva de Danger, Inc., fabricante del Hip Top (también conocido como T-Mobile). En mayo de 2004, tras el nombramiento del Dr. Tom Millar, Woz fue nombrado doctor honoris causa de Ciencias por la Universidad estatal de Carolina del Norte por su contribución en el campo de las computadoras personales.
En 2005 le concedieron el honoris causa de Ingeniería en la Universidad de Kettering, en Flint, Michigan.
El éxito de Apple II
Durante años, el Apple II fue la principal fuente de ingresos de Apple y aseguró la supervivencia de la empresa cuando su dirección asumió otras operaciones menos rentables como el desventurado Apple III y la efímera Apple Lisa. Fue gracias a los beneficios del Apple II que Apple pudo desarrollar el Macintosh, comercializarlo y hacer que evolucionara gradualmente en una máquina que en la actualidad se ha convertido en el centro de todos los productos de Apple. En cierto modo, Wozniak puede considerarse como el padrino financiero de Mac.
En febrero de 1981 Steve Wozniak tuvo un accidente en su avión privado. Como consecuencia, perdió temporalmente la memoria a corto plazo. No recordaba nada sobre el accidente e incluso ni siquiera sabía que se había visto envuelto en tal accidente. Empezó a unir las piezas de lo sucedido gracias a lo que la gente le había contado. Le preguntó a su novia, Candy Clark (una empleada de Apple que había trabajado en el departamento de contabilidad), si él se había visto involucrado en algún tipo de accidente. Cuando C. Clark le habló sobre el suceso, su memoria a corto plazo se recuperó. Asimismo, Wozniak financia juegos de computadora (que funcionan con Apple II) por ayudarle a recuperar su memoria “perdida”.
Richard Stallman, inició Software Libre
Richard Stallman
Richard Matthew Stallman (Manhattan, Nueva York, 16 de marzo de 1953), con frecuencia abreviado como «rms»,1 es un programador estadounidense y fundador del movimiento del software libre, del sistema operativo GNU y de la Free Software Foundation (Fundación para el Software Libre).
Entre sus logros destacados como programador se incluye la realización del editor de texto GNU Emacs,2 el compilador GCC,3 el depurador GDB,4 y el lenguaje de construcción GNU Make;5 todos bajo la rúbrica del Proyecto GNU. Sin embargo, es principalmente conocido por el establecimiento de un marco de referencia moral, político y legal para el software libre: un modelo de desarrollo y distribución alternativo al software privativo. Es también inventor del concepto de copyleft (aunque no del término): un método legal para licenciar obras contempladas por el derecho de autor, de tal forma que su uso y modificación (así como de sus derivados) permanezcan siempre permitidos.
Su innovador trabajo y activismo en torno al software libre y los derechos digitales le han merecido numerosas distinciones; incluyendo más de una docena de doctorados y profesorados honoríficos, la prestigiosa beca de la Fundación MacArthur, el premio Pioneer de la Electronic Frontier Foundation y varios premios de la ACM. Es miembro del salón de la fama de Internet.
Iniciativa GNU
El nuevo sistema operativo sería portable para evitar que cayera en la obsolescencia, como sucedió con ITS. Stallman renunció a su empleo en el MIT a fin de desligar los derechos de autor sobre su nuevos programas, si bien el laboratorio ofreció albergar el proyecto.
Al anuncio inicial del proyecto GNU siguió en 1985 la publicación del Manifiesto GNU, en el cual Stallman declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema operativo Unix, al que denominó GNU (GNU No es Unix), pronunciado de forma parecida a ñu, en inglés (de ahí los dibujos-logotipos que lo representan). Poco tiempo después fundó la organización sin ánimo de lucro Free Software Foundation para coordinar el esfuerzo. Como Stallman no deseaba dejar su nuevo software a la suerte del dominio público, terminó por inventar el recurso legal del copyleft, que cristalizó en la Licencia Pública General GNU (conocida generalmente como la «GPL») en 1989. La mayor parte del sistema GNU, excepto el núcleo, se completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo los términos de la GPL. Se trabajó para hacer a GNU y a Linux mutuamente compatibles, completando un sistema ciento por ciento funcional: el sistema operativo GNU/Linux.
La persona: Las motivaciones políticas y morales de Richard Stallman lo han convertido en una figura controvertida. Muchos programadores influyentes que se encuentran de acuerdo con el concepto de compartir el código difieren con las posturas morales, filosofía personal o el lenguaje que utiliza Stallman para describir sus posiciones. Un resultado de estas disputas condujo al establecimiento del movimiento de código abierto.
Renuncia al MIT y Free Software Foundation
En septiembre de 2019, los colegas de Stallman informaron que hizo declaraciones en un servidor de listas internas de CSAIL en defensa del profesor fallecido del MIT, Marvin Minsky.1516 Esto debido a que Minsky fue acusado póstumamente por Virginia Giuffre de ser cliente de la red de tráfico de sexo infantil de Jeffrey Epstein.58 Stallman renunció a su puesto como investigador del Proyecto MAC en el MIT,59 y renunció como presidente del Free Software Foundation debido a las críticas que recibió por sus declaraciones.176061 El movimiento Free Software Force promueve una campaña en defensa de la permanencia de Richard Stallman como representante del movimiento del software libre.
Conclusiones
En el trabajo tomo en cuenta todos los conocimientos de cada personaje que aportaron a la
Informática aquellos autores son destacados y reconocidos por cada empresa y sus metas
como visión de estos autores..
Todos los personajes dejaron un gran logro cual hoy dia se usa en todo mundo lo cual nos
funciona para trabajar para tener una mejor comunicación sus aplicaciones son muy populares.
Gracias a ellas podemos tener conocimientos de esas herramientas todo personaje de la tarea tenía una su propia compañía.
Referencia bibliográfica
Larry Page, creador de Google:
Es un empresario estadounidense, creador junto con Serguéi Brin de Google (Alphabet). Es además, la décima persona más rica del mundo; se estima que tiene un patrimonio neto de 54,7 mil millones de dólares (2019).2 Actualmente se desempeña como CEO de la compañía Alphabet, una gigante empresa que engloba a Google y otras empresas de su ámbito
Serguéi Mijáilovich Brin:
es un empresario e informático teórico estadounidense de origen ruso que, junto a Larry Page, fundó Google. En conjunto, Brin y Page aún mantienen el control de un 16% de la compañía. Es a su vez una de las personas más ricas del mundo, con una fortuna personal estimada en 55.1 miles de millones dólares a junio de 2018.
Mark Zuckerberg, creador de Facebook
Mark Elliot Zuckerberg (White Plains, Estados Unidos; 14 de mayo de 1984), conocido como Mark Zuckerberg, es un programador y empresario estadounidense, uno de los creadores y fundadores de Facebook. Para desarrollar la red, Zuckerberg contó con el apoyo de sus compañeros de la Universidad de Harvard, el coordinador de ciencias de la computación y sus compañeros de habitación Eduardo Saverin, Dustin Moskovitz y Chris Hughes. A abril de 2018, es el personaje más joven que aparece en la lista de multimillonarios de la revista Forbes, con una fortuna valorada en 73.200 millones de dólares, lo que lo clasifica como la quinta persona más rica del mundo.
Jeff Bezos, fundador de Amazon
Jeff Preston Bezos (nacido como Jeffrey Preston Jorgensen) (Albuquerque, Nuevo México, 12 de enero de 1964) es un empresario estadounidense. Es el fundador y director ejecutivo de Amazon.
En 2015 fue el quinto hombre más rico del mundo, y en 2017 alcanzó el primer puesto de la lista Forbes.3Desde mediados de 2018 hasta fines de 2019, se mantuvo con el puesto de la persona más rica del mundo,4 siendo la primera persona en superar los 100 000 millones de dólares en la lista Forbes de los multimillonarios del mundo.1En 2019, su fortuna se aproximó a la cifra de los 108 700 millones,4 siendo así el empresario milmillonario que más ha incrementado su fortuna.
Dennis Ritchie, creador del Lenguaje C
Colaboró en el diseño y desarrollo de los sistemas operativos Multics y Unix, así como el desarrollo de varios lenguajes de programación como el C, tema sobre el cual escribió un célebre clásico de las ciencias de la computación junto a Brian Wilson Kernighan: El lenguaje de programación C.
Alan Turing, padre de la Computación
Fue un matemático, lógico, Informático teórico, criptógrafo, filósofo, biólogo teórico, maratoniano y corredor de ultradistancia británico.
Es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión que hoy es ampliamente aceptada como la tesis de Church-Turing (1936).
Linus Torvalds, creador de Linuxes
Un ingeniero de software finlandés-estadounidense,2 conocido por iniciar y mantener el desarrollo del kernel (en español, núcleo) Linux, basándose en el sistema operativo libre Minix creado por Andrew S. Tanenbaum y en algunas herramientas, varias utilidades y los compiladores desarrollados por el proyecto GNU. Actualmente es responsable de la coordinación del proyecto.
No hay comentarios:
Publicar un comentario