miércoles, 30 de marzo de 2011

Evaluacion global de informatica

Create your own banner at mybannermaker.com!
Make your own banner at MyBannerMaker.com!





Estudiantes: sergio esteban camacho gonzalez
                   wilson andres fontencha
                   mario arias

miércoles, 23 de marzo de 2011

Tala de arboles


La deforestación es un proceso provocado generalmente por la acción humana, en la que se destruye la superficie forestal.[1] [2] Está directamente causada por la acción del hombre sobre la naturaleza, principalmente debido a las talas o quemas realizadas por la industria maderera, así como para la obtención de suelo para la agricultura y ganadería.

Remover árboles sin una eficiente reforestación, resulta en un serio daño al hábitat, perdida de biodiversidad y aridez. Tiene un impacto adverso en la fijación de carbono atmosférico (CO2). Las regiones deforestadas tienden a una erosión del suelo y frecuentemente se degradan a tierras no productivas.

Entre los factores que llevan a la deforestación en gran escala se cuentan: el descuido e ignorancia del valor intrínseco, la falta de valor atribuido, el manejo poco responsable de la forestación y leyes medioambientales deficientes.

En muchos países la deforestación causa extinción, cambios en las condiciones climáticas, desertificación y desplazamiento de poblaciones indígenas.

Calentamiento Global

 
El calentamiento global es un término utilizado para referirse al fenómeno del aumento de la temperatura media global, de la atmósfera terrestre y de los océanos, desde 1850, coincidiendo con el final de la denominada Pequeña Edad de Hielo,[1] o ya sea en relación a periodos más extensos.[2] Este incremento se habría acentuado en las últimas décadas del siglo XX y la primera del XXI.

El calentamiento global está asociado a un cambio climático que puede tener causa antropogénica o no. El principal efecto que causa el calentamiento global es el efecto invernadero, fenómeno que se refiere a la absorción —por ciertos gases atmosféricos; principalmente CO2— de parte de la energía que el suelo emite, como consecuencia de haber sido calentado por la radiación solar. El efecto invernadero natural que estabiliza el clima de la Tierra no es cuestión que se incluya en el debate sobre el calentamiento global. Sin este efecto invernadero natural las temperaturas caerían aproximadamente en unos 30 °C; con tal cambio, los océanos podrían congelarse y la vida, tal como la conocemos, sería imposible. Para que este efecto se produzca, son necesarios estos gases de efecto invernadero, pero en proporciones adecuadas. Lo que preocupa a los climatólogos es que una elevación de esa proporción producirá un aumento de la temperatura debido al calor atrapado en la baja atmósfera.

El cuerpo de la ONU encargado del análisis de los datos científicos relevantes —el IPCC (Inter-Governmental Panel on Climate Change o Panel Intergubernamental del Cambio Climático)— sostiene que: «la mayoría de los aumentos observados en la temperatura media del globo desde la mitad del siglo XX, son muy probablemente debidos al aumento observado en las concentraciones de GEI antropogénicas».[3] Esto es conocido como la teoría antropogénica, y predice que el calentamiento global continuará si lo hacen las emisiones de gases de efecto invernadero. En el último reporte con proyecciones de modelos climáticos presentados por IPCC, indican que es probable que temperatura global de la superficie, aumente entre 1,1 a 6,4 °C (2,0 a 11,5 °F) durante el siglo 21.[4]

Cualquier tipo de cambio climático, además implica cambios en otras variables. Sus múltiples interacciones hacen que la única manera de evaluar estos cambios sea mediante el uso de modelos computacionales, los cuales intentan simular la física de la atmósfera y del océano.

El Protocolo de Kyoto, acuerdo originado en la Convención Marco de las Naciones Unidas sobre el Cambio Climático y adoptado en la Conferencias de Naciones Unidas sobre el Medio Ambiente y el Desarrollo, promueve una reducción de emisiones contaminantes, principalmente CO2. El protocolo ha sido tachado en ciertas ocasiones de injusto,[cita requerida] ya que el incremento de las emisiones tradicionalmente está asociado al desarrollo económico, con lo que las naciones que resultarían más afectadas por el cumplimiento de este protocolo podrían ser aquellas en zonas menos desarrolladas. No obstante en el citado protocolo, las naciones en desarrollo (incluidas China o la India) están exentas de contener sus emisiones de GEI.

Más allá del consenso científico general en torno a la aceptación del origen principalmente antropogénico del calentamiento global,[5] [6] [7] hay un intenso debate político sobre la realidad, de la evidencia científica del mismo. Por ejemplo, algunos de esos políticos opinan que el presunto consenso climático es una completa falacia,[8] y en enero de 2009 la minoría republicana del Senado de los Estados Unidos elaboró una lista con más de 700 científicos que disentían del origen antrópico de los cambios de temperatura de la Tierra.[9] En 2009 se descubrió el pretendido escándalo del denominado Climagate, que alegadamente demostró que los científicos de la Unidad de Investigación del Clima de la Universidad de East Anglia habrían manipulado los datos para así coincidir con las teorías del calentamiento global.[10] [11] Sin embargo, observadores científicos independientes cuestionan esa interpretación. Nature comenta: “Lo que los correos electrónicos no muestran, es sin embargo una gran conspiración para confeccionar el calentamiento global...”[12] New Scientist apunta que “no se ha mostrado que haya en los correos electrónicos hackeados algo que implique una socavación de ninguna de las conclusiones científicas”.[13] Continuando a examinar algunas de las sugerencias de los escépticos del origen antropogénico del calentamiento global, el artículo muestra varios ejemplos sobre la falta de ajustamiento a los hechos y su rigor -por ejemplo, la presentación de artículos de opinión de periodistas, como “artículos científicos revisados por pares”- y concluye: “dejamos que los lectores saquen sus propias conclusiones, acerca de en quien confiar”.

Existen además intereses económicos cruzados ya que hay muchas empresas que podrían ser negativamente afectadas si se las hiciera responsable de sus externalidades,[14] específicamente en el caso del control de emisiones de CO2 (ver también tragedia de los comunes), además de existir otras que se lucran extraordinariamente de las cuantiosas subvenciones a energías renovables, cuyos elevados costos las hacen incapaces de competir con las tradicionales (que sí emiten CO2). Así por ejemplo, el jefe del IPCC, Rajendra Pachauri fue acusado por Monckton, - en diciembre de 2009- de conflicto de intereses, uso de información privilegiada por su pasado como magnate petrolero y sus vínculos con el comercio de cuotas de emisión de contaminación. Al Gore ha sido cuestionado por lucrarse invirtiendo en empresas verdes auspiciadas por la política ecologista.[15] [16] De igual modo, el diario izquierdista británico The Guardian y la ONG ecologista Greenpeace, acusaron en 2007 a la petrolera ExxonMobil de financiar informes que pusieran en duda la tesis oficial sobre el cambio climático.[17

 Medio ambiente
Se entiende por medio ambiente todo lo que afecta a un ser vivo y condiciona especialmente las circunstancias de vida de las personas o la sociedad en su vida. Comprende el conjunto de valores naturales, sociales y culturales existentes en un lugar y un momento determinado, que influyen en la vida del ser humano y en las generaciones venideras. Es decir, no se trata sólo del espacio en el que se desarrolla la vida sino que también abarca seres vivos, objetos, agua, suelo, aire y las relaciones entre ellos, así como elementos tan intangibles como la cultura. El Día Mundial del Medio Ambiente se celebra el 5 de junio.

miércoles, 9 de marzo de 2011

Frases desconocidas


Silicon Valley
Silicon Valley (en español Valle del Silicio) es el nombre de la zona sur del área de la Bahía de San Francisco, en el norte de California, (Estados Unidos). Comprende el Valle de Santa Clara y la mitad sur de la Península de San Francisco, abarca aproximadamente desde Menlo Park hasta San José y cuyo centro se situaría en Sunnyvale.
Redes Sociales
Las redes sociales son estructuras sociales compuestas de grupos de personas, las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes o que comparten conocimientos.
El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.
En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "sociocéntricas" o "completas". Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de "red personal".

La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.
Firewall
Un cortafuegos firewall en (idioma inglés) es una parte de un sistema o una red que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.

Los cortafuegos pueden ser implementados en hardware o software, o una combinación de ambos. Los cortafuegos se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través del cortafuegos, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados. También es frecuente conectar al cortafuegos a una tercera red, llamada Zona desmilitarizada o DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior. Un cortafuegos correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección.
Código ssl
Secure Sockets Layer -Protocolo de Capa de Conexión Segura- (SSL) y Transport Layer Security -Seguridad de la Capa de Transporte- (TLS), su sucesor, son protocolos criptográficos que proporcionan comunicaciones seguras por una red, comúnmente Internet.
Servidor
Una aplicación informática o programa que realiza algunas tareas en beneficio de otras aplicaciones llamadas clientes. Algunos servicios habituales son los servicios de archivos, que permiten a los usuarios almacenar y acceder a los archivos de una computadora y los servicios de aplicaciones, que realizan tareas en beneficio directo del usuario final. Este es el significado original del término. Es posible que un ordenador cumpla simultáneamente las funciones de cliente y de servidor
Hacker
Para otros usos de este término, véase Hacker (desambiguación).
En informática, un hacker[1] es una persona que pertenece a una de estas comunidades o subculturas distintas pero no completamente independientes:
El emblema hacker, un proyecto para crear un símbolo reconocible para la percepción de la cultura hacker.Gente apasionada por la seguridad informática. Esto concierne principalmente a entradas remotas no autorizadas por medio de redes de comunicación como Internet ("Black hats"). Pero también incluye a aquellos que depuran y arreglan errores en los sistemas ("White hats") y a los de moral ambigua como son los "Grey hats".
Blogger

Blogger es un servicio creado por Pyra Labs para crear y publicar una bitácora en línea. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el alojamiento de las bitácoras su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP)

Ancho de  Banda
En computación de redes y en ciencias de la computación, ancho de banda digital, ancho de banda de red o simplemente ancho de banda es la medida de datos y recursos de comunicación disponible o consumida expresados en bit/s o múltiplos de él (kbit/s, Mbit/s, entre otros).

Ancho de banda puede referirse a la capacidad de ancho de banda o ancho de banda disponible en bit/s, lo cual típicamente significa el rango neto de bits o la máxima salida de una huella de comunicación lógico o físico en un sistema de comunicación digital. La razón de este uso es que de acuerdo a la Ley de Hartley, el rango máximo de tranferencia de datos de un enlace físico de comunicación es proporcional a su ancho de banda(procesamiento de señal)|ancho de banda en hertz, la cual es a veces llamada "ancho de banda análogo" en la literatura de la especialidad.

Ancho de banda puede también referirse a ancho de banda consumido(consumo de ancho de banda), que corresponde a el uso de descarga o colocación; por ejemplo, el rango promedio de transferencia de datos exitosa a través de una huella de comunicación. Este significado es usado por ejemplo en expresiones como prueba de ancho de banda, conformación del ancho de banda, gerencia del ancho de banda, medición de velocidad del ancho de banda, límite del ancho de banda(tope), asignación de ancho de banda, (por ejemplobandwidth allocation protocol y dynamic bandwidth allocation), entre otros. Una explicación a esta acepción es que que la anchura de banda digital de una corriente de bits es proporcional a la anchura de banda consumida media de la señal en Hertz (la anchura de banda espectral media de la señal analógica que representa la corriente de bits) durante un intervalo de tiempo determinado.

Ancho de banda digital puede referirse también a bitrato medio después de multimedia compresión de datos (codificación de fuente), definida como la cantidad total de datos dividida por el tiempo del sistema de lectura.

Algunos autores prefieren menos términos ambiguos tales como grueso de índice bits, índice binario de la red, capacidad de canal y rendimiento de procesamiento, para evitar la confusión entre la anchura de banda digital en bits por segundo y la anchura de banda análoga en hertzios.
Programación
La programación es el proceso de diseñar, escribir, probar, depurar y mantener el código fuente de programas computacionales. El código fuente es escrito en un lenguaje de programación. El propósito de la programación es crear programas que exhiban un comportamiento deseado. El proceso de escribir código requiere frecuentemente conocimientos en varias áreas distintas, además del dominio del lenguaje a utilizar, algoritmos especializados y lógica formal. Programar no involucra necesariamente otras tareas tales como el análisis y diseño de la aplicación (pero si el diseño del código), aunque si suelen estar fusionadas en el desarrollo de pequeñas aplicaciones.
Programas Algoritmos
Un algoritmo es una secuencia no ambigua, finita y ordenada de instrucciones que han de seguirse para resolver un problema. Un programa normalmente implementa (traduce a un lenguaje de programación concreto) uno o más algoritmos. Un algoritmo puede expresarse de distintas maneras: en forma gráfica, como un diagrama de flujo, en forma de código como en pseudocódigo o un lenguaje de programación, en forma explicativa, etc.
Los programas suelen subdividirse en partes menores, llamadas módulos, de modo que la complejidad algorítmica de cada una de las partes sea menor que la del programa completo, lo cual ayuda al desarrollo del programa. Esta es una práctica muy utilizada y se conoce como "refino progresivo".
Según Niklaus Wirth, un programa está formado por los algoritmos y la estructura de datos.
Se han propuesto diversas técnicas de programación cuyo objetivo es mejorar tanto el proceso de creación de software como su mantenimiento. Entre ellas, se pueden mencionar las siguientes:
programación estructurada
programación modular
programación orientada a objetos (POO)
programación declarativa

martes, 1 de marzo de 2011

TDT



TDT
'Televisión digital terrestre es la transmisión de imágenes en movimiento y su sonido asociado (televisión) mediante una señal digital (codificación binaria) y a través de una red de repetidores terrestres.

La codificación digital de la información aporta diversas ventajas. Entre ellas cabe destacar, en primer lugar, la posibilidad de comprimir la señal. Se puede efectuar un uso más eficiente del espectro radioeléctrico. Tras proceder a su multiplexación, se pueden emitir más canales - que en sistema digital pasan a denominarse "programas digitales" - en el espacio antes empleado por uno, denominado ahora "canal múltiple digital" o "múltiplex". El número de programas transmitidos en cada canal múltiple dependerá del ratio de compresión empleado. Por otro lado, se puede dedicar el espectro sobrante para otros usos. La compresión también ha hecho viable la emisión de señales de televisión en alta definición (HD o high definition en inglés), que requieren un ancho de banda mayor que la de definición estándar.

Conviene mencionar que la señal digital no es más robusta que la analógica, es decir, no es más resistente a posibles interferencias. Ambas son señales electromagnéticas, de la misma naturaleza, y susceptibles de ser distorsionadas por campos eléctricos o magnéticos, por las condiciones meteorológicas, etc. La diferencia, como se ha expuesto, radica en la manera de codificar la información. La codificación digital sigue algoritmos lógicos que permiten posteriormente identificar y corregir errores.

La transmisión de TDT se realiza siguiendo los parámetros técnicos establecidos por diferentes estándares tecnológicos. Existen varios y su uso por parte de los estados responde a su capacidad para crear estándares, a su ubicación geográfica y a su pertenencia a la esfera de influencia de los estados creadores de estándares. Así, el ATSC estadounidense es empleado, entre otros, en Estados Unidos, Canadá, México, Corea del Sur, Honduras, El Salvador y República Dominicana. El estándar japonés ISDB-T se utiliza en Japón, Filipinas y en la mayoría de los países latinoamericanos: Brasil, Bolivia, Perú, Argentina, Paraguay, Chile, Venezuela, Ecuador, Costa Rica, Nicaragua, Guatemala y Uruguay (con excepción de Colombia, Panamá, Guyana, Suriname, Honduras, El Salvador y México). El DVB-T europeo se emplea en la Unión Europea, Australia, Sudáfrica, Namibia, Panamá, Colombia y Turquía. En China se usa el DTMB (antes denominado DSM-T/HDSM).

Mayor aprovechamiento del ancho de banda
Esquema de transmisión.

Mayor aprovechamiento del ancho de banda

La tecnología de televisión analógica sólo permite la transmisión de un único programa de televisión por cada canal UHF (ya sea de 6 MHz, 7 MHz u 8 MHz de ancho de banda). Además los canales adyacentes al que tiene lugar una emisión han de estar libres para evitar las interferencias.

La codificación digital de los programas permite que en el ancho de banda disponible en un solo canal UHF se puedan transmitir varios programas con la calidad similar a la de un DVD o uno o dos con calidad HD.

El número de programas simultáneos depende de la calidad de imagen y sonido deseadas, si bien en la actualidad es de cinco programas, con un uso habitual de cuatro, lo cual da una buena calidad en imágenes con movimientos lentos, si bien en escenas de más acción se pueden apreciar fácilmente zonas de la imagen distorsionadas, que reciben el nombre de artefactos (anomalías) (artifacts, en inglés) debidas a la codificación digital MPEG-2 de baja velocidad.

Sin embargo, la gran flexibilidad de la codificación MPEG-2 permite cambiar estos parámetros en cualquier momento, de manera transparente a los usuarios. El bloque de cuatro o cinco canales de emisión que se emite por un canal habitual de UHF recibe el nombre de MUX (múltiplex). El flujo binario del MUX es la multiplexación de los canales que lo componen. La relación de flujo de cada canal multiplexado se puede regular a voluntad, lo que es equivalente a regular la calidad de los mismos. Se puede asignar un flujo alto a una película o un evento deportivo de pago detrayendo flujo de los otros canales que componen el MUX y pueden ser de emisión abierta. Como el flujo depende del contenido de la imagen, muchas variaciones o mucho detalle de una imagen producen más flujo el aprovechamiento óptimo del MUX, cuando todos sus componentes tienen la misma importancia comercial, se realiza mediante un control estadístico del flujo. Un sistema inteligente estima el flujo de cada canal que compone en MUX en cada momento y va asignando mayor o menor ancho de banda según la necesidad detectada. Lógicamente, se puede determinar, canal por canal, un ancho de banda mínimo como se ha comentado anteriormente.
[editar] Mayor límite de calidad de imagen y sonido

Debido al mejor aprovechamiento del ancho de banda, las emisiones de TDT pueden constar de mayor calidad audiovisual.

Hasta la fecha, la calidad de la imagen y el sonido en la Televisión Digital Terrestre (TDT) se divide en dos importantes categorías:

La transmisión terrestre de televisión se ve afectada por dispersión de energía, zonas de sombra y reflexiones que provocan ecos. En transmisión analógica esos problemas se manifiestan como nieve, ruido en la imagen, dobles imágenes, colores deficientes y sonido de baja calidad. En trasmisión digital, al haberse codificado la señal de manera lógica y no proporcional, el receptor puede corregir, hasta cierto punto, las distorsiones provocadas por interferencias. No obstante, cuando el receptor no es capaz de subsanar ciertos errores - ello puede ocurrir cuando la interferencia ha modificado sustancialmente la señal - puede producirse la congelación de partes de la imagen o la interrupción del sonido. Cuando el nivel de error supera cierto límite, el receptor es incapaz de recomponer la señal. Es entonces cuando la pantalla ofrece una imagen en negro sin sonido. El hecho de que exista este límite de error determinado, y no una pérdida progresiva de la calidad (como era habitual en la transmisión analógica) se denomina abismo digital (digital cliff en inglés).

La imagen, sonido y datos asociados a una emisión de TDT se codifican digitalmente. Para ello, en resolución estándar, se suele emplear el estándar MPEG-2. También se puede emplear, entre otros, el estándar H.264, que al permitir un mayor ratio de compresión, es adecuado para las emisiones en alta definición o bien para incrementar el número de programas digitales incluidos en cada canal múltiple.

El problema de los ecos se ha solucionado aplicando, en el caso de DVB-T, la modulación COFDM. En la TDT el flujo binario resultante de codificar la imagen, el sonido y los datos del programa se transmite mediante miles de portadoras entre las que se reparte la energía de radiación. Las portadoras mantienen una ortogonalidad, en el dominio de la frecuencia, su energía se sitúa en el cruce por cero de cualquier otra, lo que facilita la modulación.