martes, 29 de septiembre de 2015

EL COMPUTADOR 

La computadora, también denominada computador ordenador, es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Una computadora está formada, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa.
PARTES ESENCIALES
Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etc). Una no funciona sin la otra.
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones arimético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
¿QUE PUEDE HACER?
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, ésto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, en base a datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.
Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.
¿COMO PUEDE SER?
Si bien esta máquina puede ser de dos tipos diferentes, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de "la computadora" se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también éstas de propósitos especiales.
¿QUE PUDO HACER EN LO ANTIGUO?
En la Segunda Guerra mundial se utilizaron computadoras analógicas mecánicas, orientadas a aplicaciones militares, y durante la misma se desarrolló la primera computadora digital, que se llamó ENIAC; ella ocupaba un enorme espacio y consumía grandes cantidades de energía, que equivalen al consumo de cientos de computadores actuales (PC’s). Los computadores modernos están basados en circuitos integrados, miles de millones de veces más veloces que las primeras máquinas, y ocupan una pequeña fracción de su espacio.
¿QUE ES HOY EN DIA?
Computadoras simples son lo suficientemente pequeñas para residir en los dispositivos móviles. Las computadoras portátiles, tales como tabletasnetbooksnotebooksultrabooks, pueden ser alimentadas por pequeñas baterías. Computadoras personales en sus diversas formas son iconos de la Era de la información y son lo que la mayoría de la gente considera como "computadoras". Sin embargo, los computadores integrados se encuentran en muchos dispositivos actuales, tales como reproductores MP4teléfonos celularesaviones de combate, y, desde juguetes hasta robot industriales.
HISTORIA
CRONOLOGÍA
A continuación se presentan resumidamente los principales hitos en la historia de los ordenadores, desde las primeras herramientas manuales para hacer cálculos hasta las modernas computadoras de bolsillo.
- 2700 a.C.: se utiliza en antiguas civilizaciones como la china o la sumeria la primera herramienta para realizar sumas y restas, el ábaco.
el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numéricomediante una lista bien definida, ordenada y finita de operaciones.
-1614: el escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
-1620: el inglés Edmund Gunter inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta la aparición de la calculadora electrónica para hacer operaciones aritméticas.
1623: el alemán Wilhelm Schickard inventa la primera máquina de calcular, cuyo prototipo desapareció poco después.
-1642: el científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares originales.
-1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y dividir.
-1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta perforada que controla el patrón de funcionamiento de la máquina, una idea que sería empleada más adelante por los primeros ordenadores.
-1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la primera computadora, de funcionamiento mecánico, a la que llamó la "máquina analítica". Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer realidad su idea.
-1890: el norteamericano Hermann Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de Babbage, que se utilizó para elaborar el censo de EEUU. Hollerith fundó posteriormente la compañía que después se convertiría en IBM.
-1893: el científico suizo Otto Steiger desarrolla la primera calculadora automática que se fabricó y empleó a escala industrial, conocida como la Millonaria.
-1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing, que serían claves en el desarrollo de la computación moderna.
-1938: el ingeniero alemán Konrad Zuze completa la Z1, la primera computadora que se puede considerar como tal. De funcionamiento electromecánico y utilizando relés, era programable (mediante cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían los modelos mejorados Z2, Z3 y Z4.
-1944: en Estados Unidos la empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada en EEUU.
-1944: en Inglaterra se construyen los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda Guerra Mundial.
-1946: en la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera computadora electrónica de propósito general.
-1947: en los Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
-1951: comienza a operar la EDVAC, diseñada por John von Neumann, que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado.
-1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras. Los ordenadores con transistores reemplazan a los de válvulas, marcando el comienzo de la segunda generación de computadoras.
-1957: Jack S. Kilby construye el primer circuito integrado.
-1964: la aparición del IBM 360 marca el comienzo de la tercera generación de computadoras, en la que las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
-1971: Intel presenta el primer procesador comercial y a la vez el primer chip Microprocesador, el Intel_4004.
-1975: Paul Alen y Bill Gates fundan Microsoft.
-1977: Apple presenta el primer computador personal que se vende a gran escala, el Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.
-1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
-1982: Microsoft presenta su sistema operativo MS-DOS, por encargo de IBM.
-1983: ARPANET se separa de la red militar que la originó, pasando a un uso civil y convirtiéndose así en el origen de Internet.
-1983: Richard Stallman anuncia públicamente el proyecto GNU.
-1985: Microsoft presenta el sistema operativo Windows 1.0.
-1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www), una nueva manera de interactuar con Internet.
-1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
-2000: aparecen a comienzos del siglo XXI los ordenadores de bolsillo, primero en forma de PDAs, y luego en forma de teléfonos inteligentes o smartphones.

SUS PARTES
-EL PROCESADOR
-LA BOARD(TARJETA MADRE)
-LA TARJETA DE VIDEO
-LA TARJETA DE SONIDO
-LA TARJETA DE RED
-OTRAS TARJETAS
-LA MEMORIA RAM
-UNIDADES DE DISCO
-MONITOR
-IMPRESORAS Y ESCANER
-CAJAS Y PERIFERICOS
LAS REDES SOCIALES

Una red social es una estructura social compuesta por un conjunto de actores que están relacionados de acuerdo a algún criterio. Normalmente se representan simbolizando los actores como nodos y las relaciones como líneas que los unen. El tipo de conexión representable en una red social es una relación diactica o lazo interpersonal
Las investigaciones han mostrado que las redes sociales constituyen representaciones útiles en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal, desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias. La red social también puede ser utilizada para medir el capital social.
El análisis de redes sociales estudia esta estructura social aplicando la teoria de grafos e identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafos resultante es a menudo una red compleja. Como se ha dicho, en su forma más simple una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "socio céntricas" o "completas". Otra opción es identificar la red que envuelve a una persona ; en este caso se habla de "red personal".

Una computadora u ordenador es un aparato electrónico que tiene el fin de recibir y procesar datos para la realización de diversas operaciones.

Las computadoras son actualmente los dispositivos más populares y utilizados a los efectos de realizar operaciones tan diversas como desarrollar contenido, comunicarse con otras personas, buscar información, utilizar aplicaciones diversas, y cientos de otras posibilidades.

Técnicamente, un ordenador es un conjunto de circuitos y componentes integrados (entre ellos el más relevante sería el microprocesador o cerebro de la máquina) que pueden ejecutar secuencias, rutinas y operaciones con rapidez, orden y sistematización en función de una serie de aplicaciones prácticas para el usuario programadas previamente.
Los componentes de una computadora suelen ser el CPU o Unidad Central de Procesamiento (que contiene todos los elementos de funcionamiento interno como memoria y procesador), el monitor, el teclado, el mouse y otros accesorios como impresora, escáner, cámara web, micrófono y parlantes, y otras memorias móviles.

Funcionalmente, una computadora se administra mediante un sistema operativo pre-instalado o instalado que permite la ejecución de diversas funcionalidades y la subsecuente instalación de otros programas y aplicaciones con el fin de realizar acciones mucho más específicas.

Hoy por hoy existen todo tipo de computadoras con los componentes y funcionalidades más diversas. La más común es la computadora de escritorio, que contiene todos los componentes antes mencionados y que permite ejecutar una amplia gama de operaciones de acuerdo con sus capacidades. Otro tipo de computadora es la portátil o notebook, que incluye los mismos componentes pero integrados en un solo dispositivo para su fácil transporte. También existen ordenadores más pequeños como las llamadas ‘palm’ o computadoras de mano.

Las aplicaciones más frecuentemente utilizadas en todo tipo de ordenadores son el uso de procesadores de texto y otras similares como hojas de cálculo y bases de datos, navegadores web para acceder a Internet, programas de correo electrónico, reproductores de archivos multimedia y aplicaciones que funcionan a través de la web como las redes sociales.
computadora
AVANCES TECNOLÓGICOS

El Metaconsejo de Tecnologías Emergentes del Foro Económico Mundial, formado por un panel de 18 expertos, ha elaborado un listado de las principales tecnologías emergentes para este año basándose en la experiencia colectiva de las comunidades del Foro.

Futuro y tecnologías emergentes


Las 10 principales son:

1. Vehículos de pila de combustible


Las pilas de combustible generan electricidad a partir de combustibles como el hidrógeno o el gas natural. Así, a diferencia de los vehículos eléctricos tradicionales, que funcionan con baterías y necesitan recargarse con energía de una fuente externa, los vehículos de pila de combustible generan su propia electricidad y la almacenan en una batería hasta que sea necesario su uso.

Las principales ventajas de estos vehículos son:
  • Su amplio rango de autonomía, de hasta 650 kilómetros por depósito (por lo general, de gas hidrógeno comprimido).

  • Su rapidez de recarga: apenas se tardan unos tres minutos en llenar el depósito de combustible de hidrógeno.

  • No producen emisiones a la atmósfera: el hidrógeno es de combustión limpia, por los vehículos de pila de combustible que funcionan con hidrógeno sólo producirán vapor de agua como residuo, un factor importante dada la necesidad de reducir la contaminación del aire

La tecnología está a punto de salir al mercado. Los precios iniciales podrían rondar los 70.000 dólares, pero se espera que bajen significativamente a medida que aumenten los volúmenes en un par de años.


2. Robótica de última generación


Las mejoras y el abaratamiento de los sensores están haciendo que los robots:
  • Entiendan y respondan cada vez mejor a su entorno.

  • Sus cuerpos sean más adaptables y flexibles.

  • Estén mejor conectados entre sí, gracias a la revolución de la computación en la nube, pudiendo recibir instrucciones e información de forma remota en lugar de tener que ser programados como una unidad autónoma.

Robot NAO de Aldebaran Robotics
Fuente: juguetronica.com



Esto hará que la nueva era de la robótica ya no se limite a las cadenas de montaje y fabricación, sino que se introducirá en una amplia variedad de tareas, especialmente las que resultanlaboriosas o incómodas o bien son demasiado repetitivas o peligrosas para los trabajadores humanos.

    Los robots pueden trabajar las 24 horas del día sin cansarse y a un coste más bajo que los trabajadores humanos, por lo que existe el riesgo de que acaben por desplazar a los trabajadores humanos de sus puestos de trabajo.


    3. Plásticos termoestables reciclables


    Hay dos tipos de plásticos:
    • Termoplásticos: se pueden fundir y remodelar, por lo que suelen ser reciclables. Están por todas partes, desde los juguetes de los niños a las tapas de váter.
    • Plásticos termoestables: sólo es posible calentarlos y darles forma una única vez. Debido a su gran durabilidad, son vitales para el mundo moderno y se utilizan prácticamente en todo, desde teléfonos móviles a tarjetas de circuitos para la industria aeroespacial, pero también son imposibles de reciclar. Como resultado, la mayoría de los polímeros termoestables acaban en los vertederos.

    Sin embargo, en 2014 se descubrieron los PHT, una nueva clase de polímeros termoestables reciclables. Se espera que estos polímeros puedan sustituir a los materiales termoestables no reciclables dentro de cinco años y sean omnipresentes en los artículos de nueva fabricación para el año 2025.


    4. Técnicas de ingeniería genética más precisas


    La ingeniería genética convencional ha originado mucha controversia. Sin embargo, están surgiendo nuevas técnicas que permiten "editar" directamente el código genético de las plantas para hacerlas, por ejemplo, más nutritivas o más resistentes a un clima cambiante. Entre estas nuevas técnicas se incluyen las ZFNTALENS y, más recientemente, el sistema CRISPR-Cas9. También se esperan grandes avances en el uso del ARN de interferencia (ARNi) en los cultivos.

    Una edición del genoma más precisa podría disipar los temores de los consumidores, especialmente si la planta o animal resultante no se considera transgénico porque no se introduce material genético extraño. Además, en conjunto, estas técnicas prometen avanzar en la sostenibilidad agrícola, reduciendo el uso de insumos en múltiples áreas, desde el agua y la tierra a los fertilizantes, y ayudando a los cultivos a adaptarse al cambio climático. 


    5. Fabricación aditiva


    Tradicionalmente la fabricación, ha partido de una pieza grande de material (madera, metal, piedra, etc.) y ha ido retirando capas hasta obtener la forma deseada. La fabricación aditiva consiste precisamente en lo contrario: a partir de partículas sueltas de material, ya sea líquido o en polvo,se construye una forma en 3D siguiendo una plantilla digital.





    A diferencia de las técnicas de producción en masa, las de fabricación aditiva como la impresión en 3D, permiten crear productos altamente personalizados para el cliente final y se pueden utilizar en campos muy diversos. Por ejemplo:
    • Hacer aparatos casi invisibles a la medida de la boca de un cliente a partir de imágenes computerizadas de sus dientes.
    • Imprimir células humanas para crear tejido vivo que se podría utilizar para estudiar la seguridad de los medicamentos, para la reparación y regeneración de tejidos o, en última instancia, para crear órganos para trasplantes. La bioimpresión ya se ha utilizado para crear cartílago, piel y hueso, así como tejido coronario y vascular.


    6. Inteligencia artificial emergente


    La inteligencia artificial (IA), a diferencia del hardware y el software normales, permite a una máquina percibir y responder al entorno cambiante que la rodea. La IA emergente lleva esto un paso más allá, dando lugar a máquinas que aprenden automáticamente asimilando grandes volúmenes de información.


    Inteligencia artificial (IA)


    Al igual que la robótica de última generación, la IA mejorada aumentará considerablemente la productividad, a medida que las máquinas se vayan haciendo cargo de algunas tareas que tradicionalmente realizan los humanos (incluso con un mejor rendimiento). Por ejemplo, las pruebas indican que los coches autónomos reducirán el número de colisiones; y es probable que las máquinas inteligentes, al tener acceso a un almacén mucho mayor de información y responder sin el sesgo emocional humano, puedan diagnosticar enfermedades mucho mejor que los profesionales médicos. De hecho, el sistema Watson de IBM ya se está utilizando actualmente en el campo de la oncología para ayudar a diagnosticar y establecer tratamientos personalizados.

    Sin embargo, la IA también tiene sus riesgos. Los más evidentes:
    • Esa pesadilla tan recurrente en obras de ciencia ficción en las que las máquinas superinteligentes superan y esclavizan a los humanos. Aunque todavía estamos a varias décadas de que pueda hacerse realidad, los expertos ya están empezando a tomárselo en serio.
    • El reemplazo de los trabajadores humanos por computadoras producirá cambios económicos que podrían incrementar las desigualdades sociales y amenazar los empleos existentes.



    7. Fabricación distribuida


    En la fabricación tradicional, se reúnen las materias primas en grandes fábricas centralizadas para ensamblarlas y fabricar con ellas productos con acabados idénticos que luego se distribuyen a los clientes. En cambio, en la fabricación distribuida, las materias primas y los métodos de fabricación están descentralizados y el producto definitivo se fabrica muy cerca del cliente final

    A corto plazo, se espera que la fabricación distribuida:
    • Permita un uso más eficiente de los recursos, reduciendo la generación de residuos en las fábricas centralizadas.

    • Reduzca las barreras para acceder a los mercados, al disminuir la cantidad de capital necesario para construir los primeros prototipos y productos.

    • Reduzca el impacto medioambiental global de la fabricación, al disminuir la cantidad de energía requerida para el transporte.

    También podría:
    • Fomentar una mayor diversidad en objetos que hoy en día están estandarizados, como los teléfonos inteligentes o los automóviles.

    • Dar lugar a una rápida proliferación de bienes y servicios en regiones del mundo que no están bien abastecidas por la fabricación tradicional. 

    8. Drones completamente autónomos


    Los vehículos aéreos no tripulados o drones ya se utilizan actualmente con fines militares y en otros campos como la agricultura o el rodaje de películas, pero por el momento siempre han sido pilotados por humanos, aunque de forma remota.

    Drones


    El siguiente paso, será desarrollar máquinas que vuelen por sí solas, ampliando mucho más el abanico de aplicaciones. Para que esto sea posible, los drones deberán ser capaces de detectar y responder a su entorno local, alterando su altura y trayectoria de vuelo para evitar chocarcon otros objetos en su camino. 
      
    Si logran una autonomía fiable y evitar las colisiones, los drones podrían empezar a asumir tareas demasiado peligrosas o lejanas para los humanos, como por ejemplo: 
    • Comprobar las líneas de energía eléctrica.

    • Entregar suministros médicos en casos de emergencia.

    • En el campo de la agricultura, recoger y procesar grandes cantidades de datos visuales desde el aire para permitir un uso preciso y eficiente de los insumos, como los fertilizantes y el riego.
    Básicamente, los drones son robots que operan en tres dimensiones, en lugar de dos, por lo que los avances en tecnología robótica de última generación acelerarán su llegada.


    9. La tecnología neuromórfica


    Ni los mejores superordenadores actuales pueden competir con la sofisticación del cerebro humano. Los ordenadores tradicionales son lineales; se limitan a mover datos entre los procesadores de memoria y el procesador central a través de una red de alta velocidad.


    Tecnología neuromórfica y redes neuronales artificiales


    En cambio, los procesadores neuromórficos tratan de procesar la información imitando la arquitectura del cerebro humano con el fin de incrementar considerablemente la capacidad de pensamiento y respuesta de un ordenador. Combinando partes de almacenamiento y de procesamiento de datos en los mismos módulos interconectados entre sí, los procesadores neuromórficos ofrecen mayor potencia y mejor eficiencia energética. Un ejemplo es el procesador neuromórfico TrueNorth de IBM, presentado como prototipo en agosto de 2014.

    Esta mayor capacidad de cómputo con mucha menos energía y volumen, permitirá la creación de máquinas más inteligentes a pequeña escala y nos conducirá a la siguiente etapa en miniaturización e inteligencia artificial. 

    Los ordenadores podrán anticipar y aprender, en lugar de simplemente responder de formas preprogramadas.  


    10. Genoma digital


    Hoy en día, es posible secuenciar y digitalizar un genoma en pocos minutos y por apenas unos pocos cientos de euros; y los resultados se pueden entregar en una memoria USB y compartirlos fácilmente a través de Internet. Esto promete una revolución en la asistencia sanitaria, al permitir una atención más personalizada y eficaz. 

    Muchas de las enfermedades más difíciles de tratar, como las enfermedades del corazón o el cáncer, tienen un componente genético y esta digitalización permite a los médicos tomar decisiones informadas sobre el tratamiento de sus pacientes y personalizarlos en función de su información genética.

    Como toda información personal, el genoma digital de una persona tendrá que ser salvaguardado por razones de privacidad. De lo contrario, otras personas, como un jefe o una compañía de seguros, podrían  intentar acceder a la información y usarla de forma malintencionada.

    Por otra parte, tampoco está claro cómo puede reaccionar la propia persona al ser consciente de su riesgo genético de enfermedad.


    HISTORIA DEL INTERNET

    La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de ordenadores diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones. La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorandos escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).
    Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se introdujo la World Wide Web (WWW), que se hizo común.
    La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos como internet. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también unabrecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
    Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando endemostración automática de teoremas e inteligencia artificial.
    Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, «Man-Computer Symbiosis» («Simbiosis Hombre-Computadora»).
    Una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones que existen hoy en día de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas.
    J.C.R Licklider2
    En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA delDepartamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Mónica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
    Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él.
    Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet.
    Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times3
    Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante la década de 1960, varios grupos trabajaron en el concepto de la conmutación de paquetes. Un paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.4

    Internet map 1024 - transparent, inverted.png

                                                             HISTORIA DEL GOOGLE

    Canales de distribución[editar]

    Actualmente, Google Chrome cuenta con varios canales de distribución para la descarga y prueba de todas sus compilaciones. Los canales comunes denominados «Stable»«Beta» y «Dev» son accesibles desde el sitio web del proyecto Chromium,16 siendo los dos últimos repositorios para versiones de desarrollo. El 22 de julio de 2010, Google anunció un nuevo sistema de lanzamientos más frecuente para ofrecer a los usuarios características nuevas cuanto antes, con la meta de entregar versiones estables cada 6 semanas.17 18 Debido a esto, se incorporó un nuevo canal de distribución (denominado «Canary») en aras de proporcionar una versión diaria para pruebas en conjunto con otros canales de desarrollo del navegador;19 el nombre del canal hace referencia a la práctica de llevar un canario a las minas de carbón para permitir a los trabajadores la detección temprana de gases peligrosos.20

    Chrome para Android y iOS[editar]

    En febrero de 2012, Google lanza 'Chrome para Android Beta'. Cuya versión está disponible solo para Android 4.0 'Ice Cream Sandwich' en teléfonos inteligentes y tabletas. Con la posibilidad de abrir múltiples pestañas, sincronización de marcadores y pestañas con la versión de escritorio, modo incógnito, y ver sitios de uso recientes.21 A finales de junio Chrome para Android se vuelve una versión estable.
    En junio de 2012, durante el Google I/O 2012, se anuncia que Chrome se utilizará como navegador por defecto en Android 4.1 'Jelly Bean' junto con el lanzamiento de la tableta Nexus 7.22 También se anuncia Chrome para iOS, el cual está disponible en iPhoneiPod touch y iPad.23
    En enero de 2013, las versiones Beta de Chrome también están disponibles en Android para teléfonos y tablets.24 Las cuales son de las versiones más descargadas.

    Motor de renderizado Blink[editar]

    En abril de 2013, Google anuncia su nuevo motor de renderizado basado en WebKit para Chrome y Chromium, llamadoBlink, el cual se utilizará desde la versión 28. Las razones meramente técnicas del cambio desde WebKit, son optimizar el código base y orientar su desarrollo específicamente para contribuir a la Web y optimizar Chrome.25 Opera, otro navegador web, también anuncia la utilización de Blink en futuras versiones.26
    CREADO POR:BRAIAN ANDRES ESPINOSA LADINO.