miércoles, 25 de noviembre de 2009
miércoles, 9 de septiembre de 2009
cata-juliacaanochesimiento del mundo
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Artículo bueno
Contaminación
Contaminación atmosférica
Lluvia ácida • Índice de calidad del aire • Modelos de dispersión en la atmósfera • Clorofluorocarbonos • Oscurecimiento global • Calentamiento global • Niebla • Potencial de agotamiento del ozono • Partículas • Smog
Contaminación del medio hídrico
Eutrofización • Hipoxia • Contaminación marina • Acidificación de los océanos • Chapapote • Escorrentía • Contaminación térmica • Aguas residuales • Enfermedades trasmitidas por el agua • Calidad del agua • Aguas estancadas
Contaminación del suelo
Biorremediación • Herbicida • Pesticida •Valores índice del suelo (SVG)
Contaminación radiactiva
• Radiactividad ambiental • Productos de la fisión • Accidente nuclear • Envenenamiento por radiación •
Otros tipos de contaminación
Especies invasoras • Contaminación lumínica • Contaminación acústica • Contaminación electromagnética • Contaminación visual
Tratados intergubernamentales
Protocolo de Montreal • Protocolo sobre los óxidos de nitrógeno • Protocolo de Kyoto • CLRTAP
Lista de organizaciones
Ministerio de Medio Ambiente de España • Movimiento ecologista • Adena • Greenpeace • Ecologistas en Acción
Temas relacionados
Medio ambiente
Oscurecimiento global es un término que describe la reducción gradual de la cantidad de luz solar observada que alcanza la superficie terrestre desde los años cincuenta.
Fotografía de la NASA que muestra estelas de aeronaves y nubes naturales. Las estelas podrían estar implicadas en el oscurecimiento global.
Se piensa que ha sido provocado por un incremento de partículas como el negro de carbón (o carbonilla) en la atmósfera debido a las actividades humanas, principalmente la combustión, tanto industrial como en el transporte. El efecto varía con la localización, pero globalmente la reducción ha sido del orden de un 4% en tres décadas (1970-1990). El oscurecimiento global ha interferido con el ciclo hidrológico reduciendo la evaporación y ha podido provocar sequías en algunas zonas. La tendencia se ha revertido durante los años noventa. El oscurecimiento global crea un efecto de enfriamiento que ha podido llevar a los científicos a subestimar los efectos de los gases de efecto invernadero enmascarando parcialmente el calentamiento global.Causa y efectos [editar]
Artículos principales: Contaminación atmosférica y Balance radiativo terrestre
Actualmente se piensa que el oscurecimiento global se debe probablemente a la creciente presencia de aerosoles y otras partículas en la atmósfera. Las partículas contaminantes actúan también como núcleos de condensación en torno a los cuales se forman gotas microscópicas que van uniéndose por coalescencia. Toda nube contiene un determinado número de estas partículas pero el incremento causado por la contaminación atmosférica ha hecho que haya más de la cuenta, con lo que las nubes se cargan con una mayor cantidad de gotas más pequeñas. Este tipo de nubes se ha calculado que son más blancas, es decir que reflejan mejor la luz solar que las de gotas más grandes pero más escasas. El balance total es que la cobertura nubosa de la Tierra devuelve al espacio más luz solar que antes.
Las nubes interceptan tanto el calor del Sol como el que es radiado por la Tierra. Sus efectos son complejos y varían según el momento, la localización y la altitud. Habitualmente, durante el día predomina la intercepción de la luz solar, produciendo un efecto de enfriamiento, sin embargo, por la noche la reemisión del calor radiado por la Tierra ralentiza la pérdida de calor del planeta reteniendo una buena parte de éste en la baja troposfera.
Trabajos de investigación [editar]
China Oriental. Docenas de incendios ardiendo en la superficie (puntos rojos) y una estrecha cortina de humo (puntos grisáceos) ocupan el espacio superior. Foto tomada por el instrumento MODIS instalado en el satélite Aqua de la NASA.
A finales de los años sesenta, Mikhail Ivanovich Budyko trabajó con modelos climáticos basados en balances energéticos bidimensionales simples para investigar la reflectividad del hielo[1] encontró que se creaba un bucle de realimentación positivo sobre el sistema climático terrestre cuyos extremos eran la cantidad total de hielo superficial y el albedo. Cuanto más hielo y nieve se acumula, más radiación solar se refleja hacia el espacio y por tanto más se enfría la tierra y aumentan las nevadas. Otros estudios encontraron que la contaminación o las erupciones volcánicas podrían precipitar una era glacial.[2]
A mediados de los años ochenta, Atsumu Ohmura, un geógrafo que investigaba en el Instituto Federal Suizo de Tecnología, encontró que la radiación solar que alcanzaba la superficie terrestre había descendido en más del 10% si se compara con las tres décadas anteriores. Sus hallazgos estaban en aparente contradicción con el calentamiento global (la temperatura global se había incrementado a ritmo constante). El hecho de que menos luz alcance la tierra significaría que tendría que enfriarse. Ohmura publicó sus resultados bajo el título Variación secular de la radiación en Europa en 1989.[3] Este artículo pronto fue seguido de otros: Vivii Russak en 1990 Tendencias de la radiación solar, la nubosidad y la transparencia atmosférica a lo largo de las últimas décadas en Estonia,[4] y Beate Liepert en 1994 «Radiación solar en Alemania: tendencias observadas y valoración de sus causas».[5] El oscurecimiento también fue observado en lugares de toda la ex-Unión Soviética.[6] Gerry Stanhill, que estudió estas disminuciones en muchos lugares del mundo a través de muchos artículos (ver referencias) acuñó el término «oscurecimiento global».[7]
El Golden Gate con las características nubes negras de California al fondo, una probable contribución al oscurecimiento global.
Trabajos de investigación independientes en Israel y Holanda a finales de los años ochenta mostraron una aparente reducción de la cantidad de irradiación solar,[8] a pesar de la extendida evidencia de que el clima realmente se está recalentando. La tasa de oscurecimiento varía en el conjunto del planeta, pero está dentro de una media estimada entre el 2 y el 3% por década, con la posibilidad de que la tendencia revirtiera a principios de los años noventa. Es difícil realizar medidas precisas, debido a la dificultad de calibrar los instrumentos que se utilizan y el problema de la cobertura espacial. No obstante, el efecto está presente casi con total certeza.
El fenómeno (en una cuantía de una disminución de la temperatura del 2 al 3%, como se dijo antes) es debido a cambios en la atmósfera terrestre; el valor de la radiación solar en la parte alta de la atmósfera no ha cambiado más que una fracción de este valor.[9]
El efecto varía mucho en todo el planeta, pero las estimaciones sobre los valores de la media en la superficie terrestre son:
* 5,3% (9 W/m²) entre 1958 y 1985 (Stanhill and Moreshet, 1992)[7]
* 2% por década entre 1964 y 1993 (Gilgen et al, 1998)[10]
* 2,7% por década (total 20 W/m²); hacia el 2000 (Stanhill y Cohen, 2001)[11]
* 4% entre 1961 y 1990 (Liepert 2002)[12] [13]
Adviértase que estas cifras son para la superficie terrestre y no una media global real. Careciendo de medidas específicas, existe un cierto desconocimiento sobre si se da un oscurecimiento (o aumento del brillo) sobre los océanos (ver causas más abajo) aunque se tomaron medidas a lo largo de 643,7 km partiendo de la India y cruzando el océano Índico en dirección a las Islas Maldivas. Los efectos regionales probablemente son dominantes en este caso, aunque no están estrictamente confinados al área del terreno, y los efectos son dirigidos por la circulación del aire.
miércoles, 19 de agosto de 2009
web1.0 y web2.0
Web 1.0
Concepto:
En informática, la World Wide Web, cuya traducción podría ser Red Global Mundial, es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.
Aplicación:
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.
Web2.0
Concepto:
El término Web 2.0 fue acuñado por Tim O'Reilly en 2004 para referirse a una segunda generación en la historia del desarrollo de tecnología Web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios de una comunidad o red social. La Web 2.0 es tambièn llamada web social por el enfoque colaborativo y de construcciòn social de esta herramienta.
Aplicación:
Los protocolos de mensajes bidireccionales son uno de los elementos clave de la infraestuctura de la Web 2.0. Los dos tipos más importantes son los métodos RESTful y SOAP. REST indican un tipo de llamada a un servicio web donde el cliente transfiere el estado de todas las transacciones. SOAP y otros métodos similares dependen del servidor para retener la información de estado. En ambos casos, el servicio es llamado desde un API. A veces este API está personalizado en función de las necesidades específicas del sitio web, pero los APIs de los servicios web estándares (como por ejemplo escribir en un blog) están también muy extendidos. Generalmente el lenguaje común de estos servicios web es el XML, si bien puede haber excepciones.
Recientemente, una forma híbrida conocida como Ajax ha evolucionado para mejorar la experiencia del usuario en las aplicaciones web basadas en el navegador. Esto puede ser usado en webs propietarias (como en Google Maps) o en formas abiertas utilizando un API de servicios web.
Comparación de características:
Web 1.0 Web 2.0
Enciclopedia Británica Wikipedia
ventajas y desventajas:
web 2.0
Una web se puede decir que está construida usando tecnología de la Web 2.0 si se caracteriza por las siguientes técnicas:
- Técnicas:
- CSS, marcado XHTML válido semánticamente y Microformatos
- Técnicas de aplicaciones ricas no intrusivas (como AJAX)
- Java Web Start
- XUL
- Redifusión/Agregación de datos en RSS/ATOM
- URLs sencillas con significado semántico
- Soporte para postear en un blog
- JCC y APIs REST o XML
- JSON
- Algunos aspectos de redes sociales
- Mashup (aplicación web híbrida)
- General:
- El sitio no debe actuar como un "jardín cerrado": la información debe poderse introducir y extraer fácilmente
- Los usuarios deberían controlar su propia información
- Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador
Web1.0
La visualización de una página web de la World Wide Web normalmente comienza tecleando la URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla.
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.
Esta colección de recursos útiles y relacionados, interconectados a través de enlaces de hipertexto, es lo que ha sido denominado como 'red' (web, en inglés) de información. Al trasladar esta idea a Internet, se creó lo que Tim Berners-Lee llamó WorldWideWeb (un término escrito en CamelCase, posteriormente desechado) en 1990.[1]
Si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable que no se vuelvan a recuperar los datos del servidor web de la forma en que se explicó en el apartado anterior. Por defecto, los navegadores almacenan en una caché del disco duro local todos los recursos web a los que el usuario va accediendo. El navegador enviará una petición HTTP sólo si la página ha sido actualizada desde la última carga, en otro caso, la versión almacenada se reutilizará en el paso de renderizado para agilizar la visualización de la página.
Esto es particularmente importante para reducir la cantidad de tráfico web en Internet. La decisión sobre la caducidad de la página se hace de forma independiente para cada recurso (imagen, hoja de estilo, ficheros JavaScript, etc, además de para el propio código HTML). Sin embargo en sitios de contenido muy dinámico, muchos de los recursos básicos sólo se envían una vez por sesión. A los diseñadores de sitios web les interesa reunir todo el código CSS y JavaScript en unos pocos ficheros asociados a todo el sitio web, de forma que pueden ser descargados en las cachés de los usuarios y reducir así el tiempo de carga de las páginas y las peticiones al servidor.
Hay otros componentes de Internet que pueden almacenar contenido Web. El más común en la práctica son los frecuentes firewalls de empresa y académicos donde se pueden almacenar los recursos web solicitados por un usuario para el beneficio de todos los que estén conectados a ese firewall. Algunos buscadores como Google, Yahoo!, GlowBoom o AltaVista también almacenan contenidos de sitios Web.
Aparte de las utilidades creadas en los servidores Web que pueden determinar cuándo los ficheros físicos han sido actualizados, los diseñadores de páginas web generadas dinámicamente pueden controlar las cabeceras HTTP enviadas a los usuarios, de forma que las páginas intermedias o sensibles a problemas de seguridad no sean guardadas en caché. Por ejemplo, en los bancos on line y las páginas de noticias se utiliza frecuentemente este sistema.
Esto nos ayuda a comprender la diferencia entre los verbos HTTP 'GET' y 'POST' - los datos solicitados con GET pueden ser almacenados en la caché, si se cumplen las otras condiciones, mientras que con los datos obtenidos después de enviar información al servidor con POST normalmente no se puede.