miércoles, 5 de diciembre de 2007

conclusion sobre la economia digital

La econimoia deigital facilita mucho los negocios ya que redudce el tiempo que toma cerrar un negocio y disminuye costos de operacion e implantacion tecnologiaca, pero para esto hay que mantener a demaciados elementos trabajando de forma sincronizada pero tambien incluye riesgos ya que una caida de los enlaces en la red puede virtualmente paralizar una compañia, aunque los centros de datos sigan fuencionando. Para que una red de negocios funcione bien tambien hay que tener un fuerte impacto en la seguridad ya que si no se tiene esta se puede extraer informacion confidencial sobre las empresass y hacer mal uso de ella.
La economia digital en la red tambien modifica la forma en que los empleados ven el trabajo e incluso su vida personal ya que favorece la posibilidad de horarios mas flexibles y poder trabajar desde casa sin necesidad de estar presisamente en una oficina.
Las virtudes del e-business depende de las virtudes de internet, que es y seguira siendo la infraestructura màs elegida.Internet permite una comunicaciòn de ida y vuelta, que posibilitan la interoperabilidad de empresas, sitios web y servicio, por medio del nuevo software broad vision o similares, se puede personalizar todo un sito web para cada usuario sin costos adicionales.Una pagina web perzonalizada, a demas de estar organizada segun el gusto del cliente, ofrece una preselección de los productos que pueden interesarle, los precios por internet pierden relevancia ya que son los mas bajos posible.
Con respecto a las violaciones de la privacidad en internet, las encriptaciones, firmas digitales y aplicaciones del firewall son muy seguras ya que permite a las empresas ofrecer informacion confidencial a sus clientes y a sus pares sin arriesgarse a q ue la vean personas no autorizadas.
Es necesario que las empresas protejan a sus clientes dado que este tipo de informacion es privada y no debe pasar de una organizacion a otra sin consentimiento escrito del cliente.

martes, 20 de noviembre de 2007

historia del internet

Historia de Internet
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.

Orígenes de Internet
La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).
El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.
A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).
En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .
El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.


Conceptos iniciales sobre Internetting
La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes.
Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.
Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).
En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.
No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.
Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.
Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.
Ideas a prueba
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar.
Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos.
Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa ( desktop ), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.
La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.
En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de una pocas redes con un modesto número de hosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.
En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).
Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.
El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. Esto llevó a la invención del DNS ( Domain Name System , sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo, www.acm.org o www.ati.es ) en direcciones de Internet.
El incremento del tamaño de Internet resultó también un desafío para los routers . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol , protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de pasarela) usado para mantener unidas las regiones.
El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers , también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing , enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.
A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora.
BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet.
Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión.
La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").
TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.
Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.


La transici1ón hacia una infraestructura global
Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.
El Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS ( National Science Foundation , Fundación Nacional de la Ciencia) de Estados Unidos.
La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado.
Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8).
Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus".
En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines.
La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board , Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.
El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos.
El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información.
El papel de la documentación
Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente a las especificaciones de los protocolos.
Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes.
En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC ( Request For Comments , petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero cuando el FTP ( File Transfer Protocol , protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP.
Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online . Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día.
El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación.
Con el paso del tiempo, las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.
El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet- promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas.
El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización.
Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo, cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el documento, éste puede ser distribuido como una RFC.
Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.















Que es Internet 2?
Es una red de cómputo sustentada en tecnologías de vanguardia que permiten una alta velocidad en la transmisión de contenidos y que funciona independientemente de la Internet comercial actual.
Su origen se basa en el espíritu de colaboración entre las universidades del mundo y su objetivo principal es desarrollar la próxima generación de aplicaciones telemáticas para facilitar las misiones de investigación y educación de las universidades, además de ayudar en la formación de personal capacitado en el uso y manejo de redes avanzadas de cómputo.
¿A qué se refiere con aplicaciones telemáticas?
Son aplicaciones que utilizan las facilidades de telecomunicaciones e informática. Internet es una red Telemática.¿Qué son las redes de avanzadas? ¿Es sinónimo de redes de banda ancha o de alto rendimiento?Son redes que junto con la posibilidad de manejar mayores velocidades de transmisión, cuentan con otros atributos, como son:
• Multicast• Calidad de Servicio (QoS)• Protocolos especializados (Vgr. H.323)• IPv6• Topologías dedicadas, seguras y flexibles

¿Por qué otra Internet?
La Internet de hoy en día ya no es una red académica, como en sus comienzos, sino que se ha convertido en una red que involucra, en gran parte, intereses comerciales y particulares. Esto la hace inapropiada para la experimentación y el estudio de nuevas herramientas en gran escala.
Adicionalmente, los proveedores de servicios sobre Internet "sobre venden" el ancho de banda que disponen, haciendo imposible garantizar un servicio mínimo en horas pico de uso de la red. Esto es crítico cuando se piensa en aplicaciones propias de Internet 2, que requieren calidad de servicio garantizada.
Por otro lado, los enlaces de alta velocidad son aún demasiado costosos para poder realizar su comercialización masiva.
Todo esto, nos lleva a la conclusión que Internet no es un medio apto para dar el salto tecnológico que se necesita para compartir grandes volúmenes de información, videos, transmisión de conferencias en tiempo real o garantizar comunicación sincrónica permanente.

Empresas que utilizan E-bussines•

Dalera
E-Carrefour
Euro Economato
Isla Soft
Mobipay España
Saniline Aprovisionamientos Hospitalarios
Terceros de Confianza
Wunderman
XPedite System Spain



Escuelas con E-learning

Escuela de Arte/Cultura
Escuela Turismo
Escuela Informática/Tecnología
Escuela Programación
Escuela de Deportes de Mar

lunes, 29 de octubre de 2007

kaizen

Los cambios en la materia tecnológica exigen cada vez mas a las empresas mayores niveles de calidad y a menor precio y esto solo se puede lograr con la aplicación de métodos de manera armónica para hacer frente a estos retos.
Las empresas están sometidas a la competencia entre otras empresas de otras regiones.
Entre los diversos instrumentos, técnicas o sistemas de moda se encuentran la reingeniería de negocios, gestión de calidad total, gestión de procesos seis sigma entre otros sobre sale el kaizen que significa el mejoramiento en marcha que involucra a todos- alta administración, gerentes y trabajadores.
Las empresas se clasifican entre perdedoras, sobrevivientes y ganadoras esto depende de los resultados que den en las siguientes cuatro áreas:

1.- rendimiento sobre los activos (ROA)
2.- valor agregado por empleados (VAE)
3.- participación en el mercado
4.- satisfacción del cliente

El kaizen puede utilizarse para la solución de problemas. En el kaizen se encuentran vinculados el control total de calidad. Círculos de calidad, just time, poka yoke, mantenimiento productivo total, etc.
El mejoramiento duradero solo se logra cuando la gente trabaja para estándares más altos, el punto de partida para el mejoramiento es reconocer la necesidad.
El kaizen enfatiza el reconocimiento de problemas, proporciona pistas para la identificación de los mismos y establece un proceso para la resolución de estos.
El kaizen y el Jit le dan al tiempo el valor que tiene, el tiempo es el único activo irrecuperable que es común en todas las empresas, independientemente de su tamaño, la utilización ineficiente del tiempo produce el estancamiento.
El CTC es uno de los componentes fundamentales del kaizen y esta centrado en el miramiento del desempeño administrativo en todos los niveles.
El control de calidad es un sistema de medios para producir económicamente bienes y servicios que satisfagan las necesidades del cliente.




El objetivo del TQM es lograr un proceso de mejora continua de la calidad por un mejor conocimiento y control de todo el sistema, involucra a todos los sectores. Es importante producir el articulo que los consumidores desean y producirlo si fallas, al menor costo y entregarlo en tiempo y forma.

El sistema JIT se orienta a la eliminación de actividades de todo tipo que no agregan valor y al logro de producción de un sistema ágil
Y suficientemente ágil que de cabida a las fluctuaciones en los pedidos de los clientes estas no son aplicables solo a la industria manufacturera si no a la de servicios. También promueve los incrementos de los niveles de productividad y disminuye los niveles de desperdicios.
El TPM trata de racionalizar la gestión de los equipos que integran los procesos productivos de modo que puedan optimizarse el rendimiento de los mismos y la productividad de tales sistemas.

kaizen

Los cambios en la materia tecnológica exigen cada vez mas a las empresas mayores niveles de calidad y a menor precio y esto solo se puede lograr con la aplicación de métodos de manera armónica para hacer frente a estos retos.
Las empresas están sometidas a la competencia entre otras empresas de otras regiones.
Entre los diversos instrumentos, técnicas o sistemas de moda se encuentran la reingeniería de negocios, gestión de calidad total, gestión de procesos seis sigma entre otros sobre sale el kaizen que significa el mejoramiento en marcha que involucra a todos- alta administración, gerentes y trabajadores.
Las empresas se clasifican entre perdedoras, sobrevivientes y ganadoras esto depende de los resultados que den en las siguientes cuatro áreas:

1.- rendimiento sobre los activos (ROA)
2.- valor agregado por empleados (VAE)
3.- participación en el mercado
4.- satisfacción del cliente

El kaizen puede utilizarse para la solución de problemas. En el kaizen se encuentran vinculados el control total de calidad. Círculos de calidad, just time, poka yoke, mantenimiento productivo total, etc.
El mejoramiento duradero solo se logra cuando la gente trabaja para estándares más altos, el punto de partida para el mejoramiento es reconocer la necesidad.
El kaizen enfatiza el reconocimiento de problemas, proporciona pistas para la identificación de los mismos y establece un proceso para la resolución de estos.
El kaizen y el Jit le dan al tiempo el valor que tiene, el tiempo es el único activo irrecuperable que es común en todas las empresas, independientemente de su tamaño, la utilización ineficiente del tiempo produce el estancamiento.
El CTC es uno de los componentes fundamentales del kaizen y esta centrado en el miramiento del desempeño administrativo en todos los niveles.
El control de calidad es un sistema de medios para producir económicamente bienes y servicios que satisfagan las necesidades del cliente.




El objetivo del TQM es lograr un proceso de mejora continua de la calidad por un mejor conocimiento y control de todo el sistema, involucra a todos los sectores. Es importante producir el articulo que los consumidores desean y producirlo si fallas, al menor costo y entregarlo en tiempo y forma.

El sistema JIT se orienta a la eliminación de actividades de todo tipo que no agregan valor y al logro de producción de un sistema ágil
Y suficientemente ágil que de cabida a las fluctuaciones en los pedidos de los clientes estas no son aplicables solo a la industria manufacturera si no a la de servicios. También promueve los incrementos de los niveles de productividad y disminuye los niveles de desperdicios.
El TPM trata de racionalizar la gestión de los equipos que integran los procesos productivos de modo que puedan optimizarse el rendimiento de los mismos y la productividad de tales sistemas.

miércoles, 17 de octubre de 2007

Modelos de Organizacion

INTRODUCCION La calidad se ha convertido en el mundo globalizado de hoy, los sistemas de gestión de calidad basadas en las normas ISO 9000 que reflejan el consenso nacional en este tema, han cobrado una popularidad y muchas organizaciones han decidido tomar el camino de implantarlo. La documentación es el soporte de gestión de la calidad. INSTITUTO NACIONAL DE ECOLOGIA Los países altamente industrializados utilizan la Norma ISO 14001, con el apoyo de la Guía ISO 14004, como modelo del sistema de administración ambiental que proporciona las máximas ventajas a las empresas para la conducción de sus programas ambientales. Sin embargo, se argumenta que la incorporación de la Norma ISO 14001 es muy cara para la pequeña y mediana empresa, adicional a sus requerimientos de certificación privada que en México, por ahora, exige la contratación de organismos de certificación extranjeros. También se señala que la dificultad para introducirla y mantenerla puede generar severas restricciones no arancelarias para los sectores empresariales por parte de aquellos países que no estén en condiciones de superar las dificultades de su onerosa inserción. En los presentes Lineamientos de gestión ambiental se le otorga una gran importancia al sistema de administración ambiental, no como un instrumento en sí mismo, sino como un medio indispensable para la conducción del Programa de Gestión Ambiental. Por ello, la empresa puede utilizar cualquier sistema de administración ambiental que le permita sistematizar, registrar, documentar, conducir, evaluar y comunicar las actividades que realiza en favor del medio ambiente y, de ser el caso, que un tercero verifique y reporte su cumplimiento. Sin embargo, en los presentes Lineamientos se proporciona a las empresas interesadas una síntesis de ejecución que más adelante les permita incorporar la Norma ISO 14001 como su sistema de administración ambiental a partir de un esquema más sencillo y versátil. En particular, tal como se desarrolla en los capítulos subsecuentes, se considera conveniente que el sistema de administración ambiental del establecimiento industrial siga los principios planteados por la Norma señalada, básicamente: • Una revisión ambiental inicial de todas sus condiciones de operación, incluyendo posibles incidentes y situaciones de emergencia.• Definir sus políticas ambientales y comprometerse con la ejecución de su SAA.• Formular un plan para cumplir con su política ambiental.• Desarrollar \as capacidades y mecanismos de apoyo necesarios para llevar a cabo su política y sus objetivos ambientales.• Medir, monitorear y evaluar su Programa de Gestión Ambiental.• Revisar y mejorar continuamente su sistema de administración ambiental, tanto como su Programa de Gestión Ambiental con el objetivo de mejorar su desempeño ambiental general. El pasado 1 de Mayo de 2006, se ha aprobado por la ISO(1) un nuevo estándar,el ISO/IEC 26300. Esta nueva norma se refiere a los documentos ofimáticos(documentos de texto, hojas de cálculo, presentaciones, diagramas, plantillasy bases de datos). La adopción de este estándar supone un gran avance paraque la sociedad de la información sea más justa. Y no hablo de justicia anivel moral, sino de un ámbito práctico. Sistemas de la Calidad. Modelo para el aseguramiento de la Calidad en el diseño, el desarrollo, la producción, la instalación y el servicio postventa. ISO9002 Sistemas de la Calidad. Modelo para el aseguramiento de la Calidad en la producción, la instalación y el servicio postventa. ISO9003 Sistemas de la calidad. Modelo para el aseguramiento de la Calidad en la inspección y los ensayos finales. Normalmente las empresas se certifican por la norma ISO9001 o por la ISO9002 dependiendo de si su proceso productivo implica una etapa de "diseño" (ISO9001) o no (ISO9002) respectivamente; aunque una empresa que haga diseño puede ir a la certificación de sólo una parte de la misma (por ejemplo la comercialización de los productos) y en ese caso podría certificarse por la 9002 (este extremo va a cambiar en breve con las modificaciones a la norma que están en preparación, de forma que las empresas en cuyo proceso se incluyan etapas de diseño deberán obligatoriamente certificar también esa parte). Para que quede claro a que hacemos referencia con la palabra "diseño", suponga una empresa que fabrica sillas, si esta empresa tiene un catálogo de modelos y todos los artículos que fabrica los saca de ahí, no hace diseño. Pero si la empresa dispone de un equipo de diseñadores que crean nuevos modelos de sillas que la empresa fabrica y los va incorporando a su catálogo o bien se diseñan productos de acuerdo con necesidades individuales de sus clientes, entonces esta empresa sí está realizando una fase de diseño en su proceso productivo. ¿Que es la pirámide documental ? Es el soporte físico sobre el que se asienta el sistema de gestión de la calidad, consta de: Manual de Calidad, Procedimientos, Instrucciones técnicas. Una representación de estos tres niveles de que costa el sistema de calidad aparece en el siguiente gráfico; en él se puede ver como el Manual de Calidad forma el primer nivel de documentación, bajo éste se sitúan los Procedimientos relativos a la Calidad. En el nivel más bajo se encuentran las instrucciones técnicas. En el Manual de Calidad se encuentran entre otras cosas: La presentación (historia) y descripción de la empresa (localización, personal, organigrama, etc.), la misión y visión, las líneas generales que se plantea como estrategia sobre la que definir objetivos, en definitiva, todo aquello que constituye la política de calidad de la empresa; también se incluye un breve resumen de los procedimientos de Calidad. El Manual de Calidad debe ser un documento de presentación de la empresa, que se enseña a los clientes. Debe tener un imagen cuidada. Los Procedimientos, resumidos en el Manual de Calidad en forma de "imagen hacia el cliente" y no redactados de forma técnica, son considerados individualmente en este nivel de documentación. Ahora sí deben redactarse de forma correcta, de manera que incluyan todos los aspectos que indica la norma para cada uno de ellos y que representes, al fin y al cabo, exactamente como se hacen las cosas en la empresa: desde como se gestionan las quejas y reclamaciones, como se evalúan los proveedores, como se transforma el producto o el servicio que realiza la empresa, hasta como se detectan y corrigen errores. La norma detalla cada uno de los procedimientos que se deben incluir en el Sistema de Calidad de una empresa pero no nos dirá que debe contener cada uno de ellos para cada caso particular, eso debe decirlo la propia empresa que está implantando su Sistema de Gestión de la Calidad. Las Instrucciones Técnicas, el nivel más bajo en la pirámide documental, constituye la información técnica sobre la que se basan algunos de los procedimientos de la empresa. Aquí están incluidos todos los Registros del Sistema de Calidad (formularios de reclamaciones, de compras internas o externas, de resultados de métodos preventivos de corrección de errores, etc.), así como las instrucciones necesarias para el funcionamiento de una determinada máquina, la normativa externa (de cualquier tipo) que debe cumplir la empresa, etc. Deben redactarse (en el caso de manuales de funcionamiento de máquinas o de metodologías a seguir) de forma que cualquier experto en el tema pueda realizar la tarea sin necesidad de consultar ninguna otra fuente que no sea la propia instrucción técnica. Para adentrarnos más en el tema vamos a repasar vocabulario específico que es imprescindible conocer si no queremos perdernos al leer la norma o al profundizar en temas de Calidad. Norma: En general, las normas de aseguramiento de la Calidad ISO 9000 Sistema de Gestión de la Calidad: Sin entrar en una precisa definición técnica se puede decir que es el conjunto de reglas y forma de trabajo que debe seguir una empresa para cumplir la filosofía y estrategias que se ha definido y lograr los productos o servicios que sus clientes reclaman. Suministrador: Es la empresa que pretende implantar un Sistema de Gestión de la Calidad Auditoria: Puede ser externa o interna. Es una revisión del Sistema de Calidad de una empresa. Si es externa, un auditor visita la empresa y comprueba si las actividades de la empresa se corresponden con lo que se describe en el Sistema de Calidad. Certificacion: Proceso mediante el cual una empresa consigue el llamado certificado de calidad bajo la norma ISO 9001 o ISO9002 (dependiendo de si tiene o no diseño en su proceso productivo respectivamente). Esta certificación la otorga un organismo que realiza una serie de auditorias a la empresa para comprobar sí cumple con lo dispuesto en su Sistema de Calidad y si éste cumple a su vez con la norma. En cada país el organismo que certifica a las empresas es distinto o hay varios (en España el más importante es AENOR). Consultor: Persona encargada por la empresa para que implante y desarrolle el Sistema de Calidad y consiga la certificación de la empresa por parte del organismo competente de certificación. Director o jefe de calidad: Persona de la empresa que se encarga de todo lo referente a la Calidad. Juega un papel de organizador de todos las partes de la empresa, establece las adecuadas sinergias entre las partes, comprueba, mejora y vigila el correcto cumplimiento del Sistema de Calidad instaurado. Como la Calidad afecta a prácticamente toda la empresa, debe ser una persona que dependa directamente de la dirección para que disponga de la suficiente autonomía e imparcialidad. Documentos: Manual de Calidad, Procedimientos, Instrucciones Técnicas, instrucciones de fabricantes, cualquier tipo de normas. Datos: Listas de clientes, proveedores o empleados; listas de normas, encuestas, planificación. Registros de la Calidad: Quejas interpuestas por los clientes, certificados, revisiones, verificaciones, albarán, pedido Formato: Es el soporte físico que una vez cumplimentado constituye un registro en conformidad. En Calidad no existen cosas que están mal hechas sino "no conformidades"; cualquier no conformidad con el Sistema de Gestión de la Calidad debe ser tratada por un método que la detecte, corrija y evite que vuelva a producirse. Cualquier Sistema de Gestión de Calidad debe poseer un buen método de detección, análisis y corrección de posibles no conformidades. plan de Calidad: Un plan de Calidad no es más que una planificación con fechas, responsables, tareas a realizar y objetivos a conseguir de cualquier aspecto relacionado con el Sistema de Calidad, ya sea la propia implantación del Sistema, la obtención de la certificación por la norma ISO9000, o cualquier otro tipo de actuación relacionado con el Sistema.
Definicion de ISO
(International Standards Organization)

¿Cuantos tipos de ISO existen?ISO 9000
ISO9000-2000
ISO 14000 ISO 9001
ISO 27001
HISTORIA DE ISO
ISO (International Standards Organization)
La Organización Internacional para la Estandarización (ISO) es una federación de alcance mundial integrada por cuerpos de estandarización nacionales de 130 países, uno por cada país.La ISO es una organización no gubernamental establecida en 1947. La misión de la ISO es promover el desarrollo de la estandarización y las actividades con ella relacionada en el mundo con la mira en facilitar el intercambio de servicios y bienes, y para promover la cooperación en la esfera de lo intelectual, científico, tecnológico y económico.Todos los trabajos realizados por la ISO resultan en acuerdos internacionales los cuales son publicados como Estándares Internacionales. ¿De donde proviene el nombre ISO? Muchas personas habrán advertido la falta de correspondencia entre el supuesto acrónimo en inglés de la Organización y la palabra “ISO”. Así sería, pero ISO no es el acrónimo.En efecto, “ISO” es una palabra, que deriva del Griego “isos”, que significa “igual”, el cual es la raíz del prefijo “iso” el cual aparece en infinidad de términos.Desde “igual” a “estándar” es fácil seguir por esta línea de pensamiento que fue lo que condujo a elegir “ISO” como nombre de la Organización. ISO Estándares
¿Cómo desarrolla la ISO sus estándares? La Organización Internacional para la Estandarización estipula que sus estándares son producidos de acuerdo a los siguientes principios:1) Consenso: Son tenidos en cuenta los puntos de vistas de todos los interesados: fabricantes, vendedores, usuarios, grupos de consumidores, laboratorios de análisis, gobiernos, especialistas y organizaciones de investigación.2) Aplicación Industrial Global: Soluciones globales para satisfacer a las industrias y a los clientes mundiales. 3) Voluntario: La estandarización internacional es conducida por el mercado y por consiguiente basada en el compromiso voluntario de todos los interesados del mercado. ¿Quién certifica las competencias laborales? Según el sistema de que se trate, la certificación de competencias laborales puede ser realizada por: La institución de formación profesional en la que se han cursado los programas formativos o donde se han demostrado las competencias requeridas para obtener el certificado. Un organismo independiente dedicado a la certificación de competencias.
Aspectos cualitativos:
Reducción en el número y alcance de las auditorías realizadas por los clientes Uso del proceso de evaluación como una herramienta para mejorar las operaciones Uso de la certificación como un elemento de marketing para demostrar el compromiso de la empresa con la calidad Acceso a ciertos mercados que requieren sistemas de calidad certificados Mejora la eficiencia global de la empresa (más si se lo integra con otros sistemas de gestión) Mayor fluidez en el desarrollo de los procesos del negocio. Facilidad para la inducción en su puesto de trabajo del personal nuevo. Importante mejora en aspectos de orden y limpieza. Aumento de la motivación del personal (especialmente en los procesos de certificación).

Aspectos cuantitativos:
Registro de las decisiones tomadas (respaldo documentado para la acción particularmente para el personal operativo) Mejor predisposición del personal para la implementación de un nuevo sistemas de gestión (Medio Ambiente, Seguridad y Salud Ocupacional) Toma de decisiones por parte de la Gerencia en base a hechos/datos comprobables Mejora en el nivel de satisfacción de los clientes Disminución de los costos por la no calidad de productos/ servicios ofrecidos. Disminución de reclamos/quejas por problemas en la prestación de servicios. Mejora en el cumplimiento de los plazos de entrega comprometidos. Importante posicionamiento de la empresa en el sector/área de actividad Certificados de Sistemas de Gestión Ambiental emitidos en Argentina por año Porcentaje de Participación en el mercado Certificados ISO 14001 emitidos en Argentina Certificados ISO 14001 emitidos por el IRAM Las actividades, productos o servicios generados por una organización afectan de una u otra forma al medio ambiente en diferentes grados de importancia. Poder evidenciar un comportamiento ambiental responsable sustenta la fortaleza competitiva de su organización. Un SGA constituye un concepto internacionalmente aceptado y difundido, para el manejo eficiente de los aspectos ambientales (causas) y del control de los impactos ambientales (efectos) asociados.
La Norma ISO 14001 es una herramienta fundamental como marco de referencia para la construcción del Sistema de Gestión Ambiental y posibilita la compatibilidad y certificación combinada con otros sistemas de gestión, tales como: ISO 9000 Gestión de la Calidad y/o la norma IRAM 38000 (Guía BS8800, Especific. OHSAS18001) de Gestión de Seguridad y Salud Ocupacional. ¿Quien certifica las empresas en ISO y cual es su procedimiento?

La certificación Internacional ISO 14001 es aplicable tanto a PyMES como a grandes empresas, permitiendo adaptarse a las exigencias del mercado globalizado orientando sus actividades hacia la Mejora Continua. TIPOS DE ISO: ISO 9000 ISO9000-2000 ISO 14000 ISO 9001 ISO 27001

¿Que se necesita para obtener la certificacion ISO?
¿Que es ISO?
¿Cual es la funcion de ISO?
¿Cual es la relacion entre ISO y el control de calidad?
¿Quien utiliza ISO?
BIBLIOGRAFIA: http://www.ine.gob.mx/ueajei/publicaciones/libros/158/cap6.html http://html.rincondelvago.com/calidad_6.html http://www.cinterfor.org.uy/public/spanish/region/ampro/cinterfor/temas/complab/xxxx/esp/xxx.htm http://www.iram.com.ar/certificacion/sistemas/home.htm#iso9000