domingo, 12 de diciembre de 2010

3.1.1.A) Identificación del entorno en Internet.

• Definición de internet y www.

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.



WWW.
En informática, la World Wide Web, es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, videos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web Semántica.

• Protocolo http.

Introducción al protocolo HTTP

Desde 1990, el protocolo HTTP (Protocolo de transferencia de hipertexto) es el protocolo más utilizado en Internet. La versión 0.9 sólo tenía la finalidad de transferir los datos a través de Internet (en particular páginas Web escritas en HTML). La versión 1.0 del protocolo (la más utilizada) permite la transferencia de mensajes con encabezados que describen el contenido de los mensajes mediante la codificación MIME.
El propósito del protocolo HTTP es permitir la transferencia de archivos (principalmente, en formato HTML). entre un navegador (el cliente) y un servidor web (denominado, entre otros, httpd en equipos UNIX) localizado mediante una cadena de caracteres denominada dirección URL.

Comunicación entre el navegador y el servidor

La comunicación entre el navegador y el servidor se lleva a cabo en dos etapas:
Comunicación entre el navegador y el servidor
  • El navegador realiza una solicitud HTTP
  • El servidor procesa la solicitud y después envía una respuesta HTTP
En realidad, la comunicación se realiza en más etapas si se considera el procesamiento de la solicitud en el servidor. Dado que sólo nos ocupamos del protocolo HTTP, no se explicará la parte del procesamiento en el servidor en esta sección del artículo. Si este tema les interesa, puede consultar el articulo sobre el tratamiento de CGI.

Solicitud HTTP

Una solicitud HTTP es un conjunto de líneas que el navegador envía al servidor. Incluye:
  • Una línea de solicitud: es una línea que especifica el tipo de documento solicitado, el método que se aplicará y la versión del protocolo utilizada. La línea está formada por tres elementos que deben estar separados por un espacio:
    • el método
    • la dirección URL
    • la versión del protocolo utilizada por el cliente (por lo general, HTTP/1.0)
  • Los campos del encabezado de solicitud: es un conjunto de líneas opcionales que permiten aportar información adicional sobre la solicitud y/o el cliente (navegador, sistema operativo, etc.). Cada una de estas líneas está formada por un nombre que describe el tipo de encabezado, seguido de dos puntos (:) y el valor del encabezado.
  • El cuerpo de la solicitud: es un conjunto de líneas opcionales que deben estar separadas de las líneas precedentes por una línea en blanco y, por ejemplo, permiten que se envíen datos por un comando POST durante la transmisión de datos al servidor utilizando un formulario.
Por lo tanto, una solicitud HTTP posee la siguiente sintaxis (<crlf> significa retorno de carro y avance de línea):
MÉTODO VERSIÓN URL<crlf>DO: Valor<crlf>
. . . ENCABEZADO: Valor<crlf>
Línea en blanco <crlf>
CUERPO DE LA SOLICITUD
A continuación se encuentra un ejemplo de una solicitud HTTP:
GET http://es.kioskea.net HTTP/1.0 Accept : Text/html If-Modified-Since : Saturday,
 
 
• Las características principales.
Anónima.
Podemos decir que ocultar la identidad, tanto para leer como para escribir, es bastante sencillo en Internet. Esta característica está directamente relacionada con el punto anterior, ya el anonimato puede facilitar el uso libre de la red con todo lo que esto conlleva. Entendido de forma positiva en anonimato facilita la intimidad y la expresión de opiniones. Aunque también facilita la comisión de delitos.
Autoreguladora.
¿Quién decide cómo funciona Internet? Algo que tiene tanto poder como Internet y que maneja tanto dinero no tiene un dueño personal. No hay ninguna persona o país que mande en Internet. En este sentido podemos decir que Internet se autoregula o autogestiona. La mayoría de las reglas que permiten que Internet funcione han salido de la propia Internet.
Existen unos comités internos que se encargan de regular Internet, como W3C, Internet Society, ICANN. Por ejemplo, se encargan de dictar las normas de los nombres de dominios, definir y aprobar los protocolos de comunicaciones, etc.
El ICANN tiene la misión de organizar el sistema de nombres de dominios que reside en 13 servidores raíz, 10 de los cuales están en EE.UU., este sistema es básico para el funcionamiento de Internet y la comunidad internacional ha pedido que pase a ser gestionado por un organismo internacional y deje de depender de EE.UU.
Hasta ahora las razones que han llevado a tomar las diferentes decisiones han sido fundamentalmente técnicas. Eso puede explicar el porqué las cosas han funcionado razonablemente bien, puesto que el crecimiento y la mejora de Internet son innegables.
A partir de ahora, debido a los problemas de seguridad y para facilitar el comercio electrónico las autoridades de diversos paises han comenzado a regular Internet mediante leyes nacionales.
En España, en el año 2002 se aprobó la LSSI (Ley de Servicios de la Sociedad de la Información y Comercio Electrónico) que regula diversos aspectos del funcionamiento de Interntet como la obligación de inscribir los nombres de dominio (.es, .com, …) en el Registro Mercantil, obligación de publicar los datos de las personas o empresas que prestan servicios en Internet, normas sobre la publicidad, correo electrónico y contratación electrónica, etc.
Esta regulacion de Internet ha sido acogida de diferente forma por diversos colectivos. Los empresarios con negocios en la red creen que favorecerá el desarrollo del comercio en Internet y hará más seguro el uso de la red de redes. Algunos colectivos piensan que es un recorte de la libertad de la red y se han manifestado en contra de la LSSI.
Un poco caótica.
Después de lo dicho en el punto anterior parece un contrasentido decir que Internet es caótica. Es caótica en el sentido que no está ordenada ni tiene unas reglas estrictas de funcionamiento que permitan asegurar que todo funciona correctamente, fundamentalmente en el aspecto del contenido.
Podemos navegar por Internet y naufragar constantemente, encontrando enlaces que no llevan a ninguna parte, páginas que dan errores, formularios que fallan, vídeos que nunca se cargan, textos descuadrados y faltas de ortografía que claman al cielo. Y esto no sólo sucede en las páginas personales, también en portales que han costado mucho dinero.
Todo esto puede dar la impresión de ser un pequeño caos ya que nadie asegura que todo funciona bien. Aunque esto también sucede en otros aspectos de la vida, hay veces que sales del cine pensando que te han tomado el pelo, hay libros que son muy malos, productos que no hacen lo que dice la etiqueta, etc.
Aunque con el paso de los años se va produciendo un proceso de decantación natural, los bueno queda arriba y lo malo se hunde en el fondo.
Insegura.
La información de Internet viaja de un lugar a otro a través de la línea teléfonica y la mayoría sin encriptar. Por lo tanto es posible interceptar una comunicación y obtener la información. Esto quiere decir que se puede leer un correo o obtener el número de una tarjeta de crédito.
Es decir, si no hacemos nada la información viaja de forma insegura, pero hoy en día toda la información importante se encripta antes de enviarla por la red, y en el destino se desencripta. Además de otro tipo de medidas de seguridad. Por lo tanto las webs de sitios serios que trabajan con tarjetas de crédito, cuentas bancarias, etc ofrecen un nivel de seguridad bastante alto. Un sitio web que trabaja con un servidor seguro se reconoce porque aparece un pequeño candado en la barra inferior.
La inseguridad también se refiere a la existencia de virus informáticos que pueden afectar a nuestro ordenador personal, pudiendo llegar a borrar o inutilizar nuestros datos. Los virus suelen entrar a través de fallos de seguridad los navegadores, del correo y al descargarse archivos. De la misma forma que en el caso anterior, podemos tomar medidas para evitar esta inseguridad. Actualizar los navegadores, no descargarse archivos de sitios sospechosos, no abrir correos de desconocidos, y tener instalado un programa antivirus.
Por último, la inseguridad afecta también a los contenidos de los sitios web puesto que algunos sitios ven modificadas sus páginas por hackers. Estas intrusiones suelen tener componentes de protesta o revindicación y generalmente no tienen efectos demasiado graves. Un grupo elevado de personas pueden bloquear el correo de un sitio web si todas escriben correos a la vez. Muchos países están modificando las leyes para evitar comportamientos delictivos de esta clase.
En resumen, podemos decir que partiendo de una situación de cierta falta de seguridad estamos llegando a una situación en la que cada vez es más seguro usar Internet, si tomamos las precauciones adecuadas. La opinión pública es muy sensible a estos temas por lo que se ha creado el mito que Internet es muy insegura, cosa que tampoco es cierta. Por ejemplo, comprar a través de Internet puede ser igual o más seguro que hacerlo por otro medio. Realmente, el porcentaje de casos de fraude en la compra por Internet es muy bajo. Hoy en día se puede comprar con bastante garantía en la mayoría de los sitios web reconocidos y serios.
Crecimiento vertiginoso.
¿Cuántos años tardó la radio en llegar a la mayoria de la población?, ¿..y la televisión, ¿… y el teléfono? ¿Cuánto está tardando Internet? El número de personas que utiliza Internet crece a un fuerte ritmo, y también el número de empresas que hace negocios en Internet. Cada vez se mueve más dinero por la red. En 1996 había 242.000 usuarios de Internet en España, y en el 2004 más de 13.000.000. E ste crecimiento se estabilizará dentro de unos años, cuando Internet llegue a un alto porcentaje de la población.
Realmente Internet es un fenómeno que va a cambiar muchas cosas en la forma en que las personas se comunican y hacen negocios. Este cambio quizás no sea tan rápido como algunos dicen, pero puede que sea más profundo de lo que algunos piensan. En los años 60 se decía que los ordenadores iban a revolucionar la vida de la gente, la cosa no ha sido para tanto. Ahora, en el principio del nuevo milenio, los ordenadores, aliados con las telecomunicaciones, tienen una segunda oportunidad. Esperemos que sea para bien. 

• La historia.
La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.

Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se introdujo la World Wide Web(WWW), que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración automática de teoremas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).
"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"
J.C.R Licklider[1]
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él. Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."
Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times[2]
Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.[3]
La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.

Navegador web



Un navegador o navegador web (del inglés, web browser) es un programa que permite ver la información que contiene una página web (ya se encuentre ésta alojada en un servidor dentro de la World Wide Web o en un servidor local).
El navegador interpreta el código, HTML generalmente, en el que está escrita la página web y lo presenta en pantalla permitiendo al usuario interactuar con su contenido y navegar hacia otros lugares de la red mediante enlaces o hipervínculos.
La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web).
Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.
El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a la Internet, se llama navegación, de donde se origina el nombre navegador (aplicado tanto para el programa como para la persona que lo utiliza, a la cual también se le llama cibernauta). Por otro lado, hojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario.

 

No hay comentarios:

Publicar un comentario