viernes, 13 de mayo de 2011

Tarea de informatica.


  1. GENERACIONES INFORMATICAS (HASTA LA 5TA GENERACION)
PRIMERA GENERACION.
Comprende desde 1946 hasta 1958, tomando en consideración dentro de la primera generación las computadoras construidas en 1944, 1946 y 1947 las cuales estaban construidas con las siguientes características: 1).- Estaban construidas por tubos al vacío (18,000 bulbos) que al producir bastante calor empezaban a emitir errores. 2).- Estaban compuestas aproximadamente por 200,000 piezas mecánicas y 800,000 metros de cable, lo cual provocaba que su estado físico fuera muy grande. 3).- El estado del aire acondicionado era de estricta calidad el cual variaba entre los 17 y los 22 grados centígrados, de esta forma se evitaban los errores. 4).- La programación era externa, por medio de módulos y la memoria por tambores magnéticos. 5).- Su peso era aproximadamente entre 70 y 80 toneladas. 6).- Su longitud era entre 18 a 20 metros. 7).- En software ( Lenguaje Maquina ) Tambor magnético. El tambor magnético era de aluminio y estaba cubierto de un material llamado MAYDEN, sobre el se grababa la información por medio de puntos magnéticos.
SEGUNDA GENERACION.
Desde 1958 a 1965, dentro de esta generación la evolución de las computadoras es bastante marcada, es decir, es notable la diferencia, por lo que también tiene sus características. Este sistema no era muy eficaz ya que constantemente se perdía la información porque el tambor magnético no tenia capa protectora 1).- Los bulbos son sustituidos por transistores. 2).- Disminuye el tamaño físico de las computadoras aproximadamente en un 50%. 3).- También disminuye el control de calidad del aire acondicionado. 4).- La programación es interna y se puede soportar todos los programas de proceso. 5).- La velocidad de operación es de microsegundos. 6).- En software ( Los Lenguajes de alto Nivel )
TERCERA GENERACION.
Comprende desde 1965 hasta 1970, dentro de esta generación el tamaño físico de la computadora se reduce a lo máximo y tiene las siguientes características: 1).- El transistor es sustituido por el microtransistor. 2).- Disminuye de un 60 a un 70% el tamaño físico de las computadoras. 3).- El control de calidad del aire acondicionado también disminuye. 4).- La memoria sigue interna por medio de núcleos magnéticos. 5).- La velocidad de proceso sigue siendo de microsegundos. 6).- En software ( Sistema Operativo )
CUARTA GENERACION.
Comprende de 1971 hasta 1980, dentro de esta generación el tamaño físico de las computadoras se reduce de un 80 a un 90% y tienen las siguientes características: 1).- El microtransistor es sustituido por circuitos integrados los cuales tienen la función de 64 microtransistores. 2).- El control de calidad del aire acondicionado es nulo o casi nulo. 3).- La velocidad de proceso es de nano-segundos 1X10-9. 4).- Se trabaja la multiprogramación y el teleproceso local y remoto. 5).- En software ( LISP, PROLOG )
QUINTA GENERACION.
Aunque no sea totalmente correcto decir que las computadoras actuales son de la cuarta generación, ya se habla de la siguiente, es decir de la quinta. Comprende de ( 1981 - 2000 ). En 1981, los principales países productores de nuevas tecnologías ( fundamentalmente Estados Unidos y Japón ) anunciaron una nueva generación, esta nueva generación de computadoras tendrá las siguientes características estructurales: 1) Estarán hechas con microcircuitos de muy alta integración, que funcionaran con un alto grado de paralelismo y emulando algunas características de las redes neurales con las que funciona el cerebro humano. 2) Computadoras con Inteligencia Artificial 3) Interconexión entre todo tipo de computadoras, dispositivos y redes ( redes integradas ) 4) Integración de datos, imágenes y voz ( entorno multimedia ) 5) Utilización del lenguaje natural ( lenguaje de quinta generación ) Estos conceptos merecen una somera explicación, debido a que si representan avances cualitativos con respecto a las generaciones anteriores. La mayoría de las computadoras actuales ejecutan las instrucciones del lenguaje de maquina en forma secuencial, es decir, efectúan una sola operación a la vez. Sin embargo, en principio también es posible que una computadora disponga de varios procesadores centrales, y que entre ellos realicen en forma paralela varias operaciones, siempre y cuando estas sean independientes entre si.


2. ARPANET

Arpaner (Advanced Research Projects Agency NETwork) es una
Red Avanzada de Agencias para Proyectos de Investigación. Esta red de conmutación de paquetes desarrollada a principios de la década de los setenta por ARPA que se considera el origen de la actual red Internet.

3. ¿QUE ES INTERNET?

Internet es un conjunto de redes, redes de ordenadores y equipos físicamente unidos mediante cables que conectan puntos de todo el mundo. Estos cables se presentan en muchas formas: desde cables de red local (varias máquinas conectadas en una oficina o campus) a cables telefónicos convencionales, digitales y canales de fibra óptica que forman las "carreteras" principales. Esta gigantesca Red se difumina en ocasiones porque los datos pueden transmitirse vía satélite, o a través de servicios como la telefonía celular, o porque a veces no se sabe muy bien a dónde está conectada.


En cierto modo, no hay mucha diferencia entre Internet y la red telefónica que todos conocemos, dado que sus fundamentos son parecidos. Basta saber que cualquier cosa a la que se pueda acceder a través de algún tipo de "conexión," como un ordenador personal, una base de datos en una universidad, un servicio electrónico de pago (como CompuServe), un fax o un número de teléfono, pueden ser, y de hecho forman, parte de Internet.

El acceso a los diferentes ordenadores y equipos que están conectados a Internet puede ser público o estar limitado. Una red de cajeros automáticos o terminales de banco, por ejemplo, pueden estar integrados en Internet pero no ser de acceso público, aunque formen parte teórica de la Red. Lo interesante es que cada vez más de estos recursos están disponibles a través de Internet: fax, teléfono, radio, televisión, imágenes de satélites o cámaras de tráfico son algunos ejemplos.


En cuanto a organización, Internet no tiene en realidad una cabeza central, ni un único organismo que la regule o al que pedirle cuentas si funciona mal. Gran parte de la infraestructura es pública, de los gobiernos mundiales, organismos y universidades. Muchos grupos de trabajo trabajan para que funcione correctamente y continúe evolucionando. Otra gran parte de Internet es privada, y la gestionan empresas de servicios de Internet (que dan acceso) o simplemente publican contenidos.


Como Internet está formada por muchas redes independientes, que hablan el mismo lenguaje, ni siquiera están claros sus límites.


Para complicar un poco más el asunto, el acceso a Internet suele ser libre y gratuito para estudiantes y profesores (debido a su filosofía de origen) y también lo es el uso de la infraestructura para todo el mundo, aunque los particulares y proveedores de acceso han de pagar para tener acceso y realizar actividades comerciales o privadas.

4. WEB 1.0 Y WEB 2.0

Web 1.0:
El concepto original de la web (en este contexto, llamada Web 1.0) era páginas estáticas HTML que no eran actualizadas frecuentemente. El éxito de las punto-com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los CMS servían páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como unos factores muy importantes.

Web 2.0:
El término Web 2.0 fue acuñado por
O'Reilly Media en 2004 para referirse a una segunda generación de Web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los
wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios.
Los propulsores de la aproximación a la Web 2.0 creen que el uso de la web está orientado a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.
Origen del término. El término fue acuñado por Dale Dougherty de
O'Reilly Media en una lluvia de ideas con Craig Cline de MediaLive para desarrollar ideas para una conferencia. Dougherty sugirió que la web estaba en un renacimiento, con reglas que cambiaban y modelos de negocio que evolucionaban. Dougherty puso ejemplos — "DoubleClick era la Web 1.0; Google AdSense es la Web 2.0.
Ofoto es Web 1.0; Flickr es Web 2.0." — en vez de definiciones, y reclutó a John Battelle para dar una perspectiva empresarial, y O'Reilly Media, Battelle, y MediaLive lanzó su primera conferencia sobre la Web 2.0 en Octubre del 2004. La segunda conferencia se celebró en octubre de 2005.
En
2005, Tim O'Reilly definió el concepto de Web 2.0. El mapa meme mostrado (elaborado por Markus Angermeier) resume el meme
de Web 2.0, con algunos ejemplos de servicios.
En su conferencia, O'Reilly y Battelle resumieron los principios clave que creen que caracterizan a las aplicaciones web 2.0: la web como plataforma; datos como el "Intel Inside"; efectos de red conducidos por una "arquitectura de participación"; innovación y desarrolladores independientes; pequeños modelos de negocio capaces de sindicar servicios y contenidos; el perpetuo beta; software por encima de un solo aparato.En general, cuando nos referimos al término web 2.0 nos referimos a una serie de aplicaciones y páginas de Internet que utilizan la inteligencia colectiva para proporcionar servicios interactivos en red dando al suario el control de sus datos.

No hay comentarios:

Publicar un comentario