jueves, 8 de octubre de 2015

RESUMEN CAPITULO 5 Y 6 DEL LIBRO SISTEMAS DE INFORMACION GERENCIAL

RESUMEN CAPITULO 5 Y 6 DEL LIBRO SISTEMAS DE INFORMACION GERENCIAL


CAPITULO 5 : INFRAESTRUCTURA DE TI Y TECNOLOGIAS EMERGENTES

INFRAESTRUCTURA DE TI
            La infraestructura de la TI de una empresa proporciona los fundamentos para servir a los clientes, trabajar con los proveedores y manejar los procesos de negocios internos de la empresa.


DEFINICION DE LA INFRAESTRUCTURA DE TI
La infraestructura de TI consiste en un conjunto  de dispositivos físicos y aplicaciones de software que se requieren para operar toda la empresa. Los servicios por la cual está compuesto son los siguientes:

Plataforma de cómputo que se utilizan para proporcionar servicios de cómputo que conectan a empleados, clientes y proveedores dentro de un entorno digital coherente.
Servicios de telecomunicaciones que proporcionan conectividad de datos
Servicios de administración de datos que almacenan y manejan datos corporativos y proveen capacidades para analizar los datos
Servicios de software de aplicaciones que proporcionan capacidades a todas las empresas, como  sistema de planeación de recursos empresariales, de administración de las relaciones con el cliente.
Servicios de administración de instalaciones físicas que desarrollan y manejan las instalaciones físicas requeridas por el servicio de cómputo.
Servicio de administración de TI que planean y desarrollan la infraestructura.
Servicios de estándares de TI que dotan a las empresas y sus unidades de negocios de las políticas que determinan cual TI se utilizará, en que momento y de que manera
Los servicios de entrenamiento en TI que proporcionan a los empleados capacitación en el uso de los sistemas y a los agentes.

IMPULSORES TECNOLOGICOS DE LA EVOLUCION DE LA INFRAESTRUCTURA
Los cambios en la infraestructura de TI que acabábamos de describir han sido resultado de los desarrollos en el procesamiento de las computadoras, los chips de memoria, los dispositivos de almacenamiento, el hardware  y el software de telecomunicaciones y de conectividad de redes.
La ley moore y la potencia de micro procesamiento

Existen al menos tres variaciones de la ley de Moore, ninguna de las cuales fue enunciada por Moore:
1.    La potencia de los microprocesadores se duplica a cada 18  meses
2.    La potencia de cómputo se duplica cada 18 meses
3.    El precio de  la computación se reduce a la mitad cada 18 meses.

La ley del almacenamiento digital masivo
Un segundo impulsor tecnológico del cambio en la infraestructura de TI es la ley del almacenamiento digital masivo. La cantidad de información digital se duplica más o menos cada año, casi la totalidad de este crecimiento se da  en el almacenamiento magnético de datos digitales, en tanto  que los documentos impresos representan únicamente el 0.003 por ciento del crecimiento anual.
La ley metcalfe y la economía de redes
Las leyes de Moore y del almacenamiento masivo nos ayudan a entender porque es tan fácil acceder ahora a los recursos de computo. ¿pero cual es el motivo para que la gente requiera mas potencia de computo y de almacenamiento? La economía de redes y el crecimiento del internet ofrecen algunas respuestas.

COMPÒNENTES DE LA INFRAESTRUCTURA
            La infraestructura de TI está conformada por siete componentes principales. Estos componentes constituyen inversiones que se deben coordinar entre si para dotar a la empresa de una infraestructura coherente.
            En el pasado, los fabricantes de tecnología que suministraban estos componentes competían entre si ofreciendo  a las empresas una mezcla de soluciones parciales, incompatibles y de propiedad exclusiva.
PLATAFORMAS DE HARDARE DE CÓMPUTO

Este componente incluye a las maquinas cliente (PCs de escritorio, dispositivos de computo móviles como P’DAs y computadoras portátiles) y las maquinas servidor. Las maquinas clientes utilizan principalmente microprocesadores Intel o AMD.
 Los servidores blade son computadoras ultra delgadas  que constan de una tarjeta de circuitos con procesadores, memoria y conexiones de red y que se almacenan en rakcs.


PLATAFORMAS DE SOFTWARE DE CÓMPUTO
Unix y Linux constituye la columna vertebral de la infraestructura de muchas organizaciones de todo el mundo  porque son estables, confiables y mucho mas económicos porque los sistemas operativos para mainframes. También se pueden ejecutar con muchos tipos distintos de procesadores. Los principales proveedores de los sistemas operativos Unix son IBM, HP y Sun, cada uno de los cuales cuentan con versiones ligeramente distintas e incompatibles en algunos aspectos.


ADMINISTRACION Y ALMACENAMIENTO DE DATOS

Existen pocas opciones de software de administración de base de datos empresariales, el cual es responsable de organizar y administrar los datos empresariales, el cual es responsable de organizar y administrar los datos de la empresa a fin de que se puedan acceder y utilizar de manera eficiente.
            Cada tres años se duplica la cantidad de nueva información digital en todo el mundo, situación propiciada en parte por el comercio electrónico y los negocios en línea.


PLATAFORMAS DE CONECTIVIDAD DE REDES Y TELECOMUNICACIONES
Windows Server se utiliza de manera predominante como el sistema operativo para redes de área local, seguido por Novell, Linux y Unix. Las grandes redes de área  empresarial utilizan principalmente alguna variable de Unix. Casi todas las redes de área local, al igual que las redes empresariales de área amplia, utilizan como estándar el conjunto de protocolos.
PLATAFORMAS DE INTERNET

Las plataformas de internet se traslapan, y deben relacionarse con, la infraestructura de conectividad de redes general de la empresa y con las plataformas de hardware y software.
            Las principales herramientas de desarrollo de aplicaciones y conjunto de programas de software para web son proporcionadas por Microsoft y la familia de herramientas de desarrollo Microsoft.

SERVICIOS DE CONSULTORIA E INTEGRACION DE SISTEMAS
La implementación de nueva infraestructura requiere cambios significativos en los procesos y procedimientos de negocios, capacitación y entrenamiento, así como integración del software.
            La integración de software significa asegurar que la nueva infraestructura funcione con los antiguos sistemas heredados de la empresa y garantizar que los nuevos elementos de la infraestructura funcione entre si.

TENDENCIAS DE LAS PLTAFORMAS DE HARDWARE Y TECNOLOGIAS EMERGENTES
Aunque  el costo de las computadoras se ha reducido exponencialmente, en realidad el costo de la infraestructura de TI se ha incrementado como un porcentaje de los presupuestos corporativos.
            Las empresas necesitan integrar la información almacenada en diferentes aplicaciones de diferentes plataformas.

LA INTEGRACION DE LAS PLATAFORMAS DE CÓMPUTO Y TELECOMUNICACIONES
Sin duda, el tema dominante en las plataformas de hardware actuales es la convergencia de las plataformas de telecomunicaciones y de cómputo hasta el punto de que, cada vez más, la computación se realice sobre la red.
            Al nivel del servidor y la red, el creciente éxito de los sistemas telefónicos por internet demuestra como las plataformas de telecomunicaciones y de cómputo, históricamente separadas, están convergiendo hacia una sola red: internet.
COMPUTACION DISTRIBUIDA
La computación distribuida implica conectar en una sola red computadoras que se encuentran en ubicaciones remotas para crear una supercomputadora virtual al combinar la potencia de cómputo de todas las computadoras de la red.
COMPUTACION BAJO DEMANDA (COMPUTACION TIPO SERVICIO PUBLICO)
La computación bajo demanda se refiere a las empresas que satisfacen el exceso de demanda de potencia de cómputo a través de centros remotos de procesamiento de datos a gran escala.
            Otro termino para la computación bajo demanda es computación tipo servicio público, el cual sugiere que las empresas compran capacidades de computo a compañías de servicios de computo centrales y pagan solamente por la cantidad de capacidad de computo que utilizan, de la misma manera que lo harían por la electricidad.


COMPUTACION AUTONOMA Y COMPUTACION DE VANGUARDIA
Los sistemas de cómputo actuales se han vuelto tan complejos que algunos expertos consideran que en el futuro podrían ser inmanejables.
            La computación autónoma es una iniciativa de toda la industria para desarrollar sistemas que puedan auto configurarse, optimizarse y afinarse a si mismos, autor repararse cuando me descomponga, y auto protegerse de intrusos externos y de la autodestrucción.

Computación de vanguardia
La computación de vanguardia es un esquema multicapa, de balanceo de carga para aplicaciones basadas en la web en el cual partes significativas del contenido, la lógica y el procedimiento del sitio web en el cual partes significativas del contenido, la lógica y el procesamiento del sitio web son ejecutados por servidores mas pequeños y mas económicos, localizados cerca del usuario con la finalidad de incrementar el tiempo de respuesta y la resistencia, a la vez, reducir los costos de la tecnología.






VIRTUALIZACION Y PROCESADORES MULTINUCLEO
A medida que las empresas implementan cientos o miles de servidores, muchas han llegado a la conclusión de  que gastan mas energía eléctrica para poner a funcionar y enfriar sus sistemas que lo que invirtieron para adquirir el hardware.
            La virtualización es el proceso de presentar un conjunto de recursos de cómputo de tal manera que se pueda acceder a todos sin ningún tipo de restricción por su configuración física o su ubicación geográfica.
Procesadores Multinucleo
Un procesador multinucleo es un circuito integrado que contiene dos o más procesadores. En el pasado, los fabricantes de chips incrementaron la velocidad de los procesadores al aumentar su frecuencia, de  unos cuantos megahertz hasta los chips actuales que funcionan a frecuencia de gigahertz.

TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE Y TECNOLOGIAS EMERGENTES

Existen  seis temas principales en la evolución de las plataformas de software contemporáneas:
Linux y el software de código abierto
Java
El software empresaria
 Los servicios web y la arquitectura orientada a servicios
Los mashups y las aplicaciones de software basadas en la web
La sub contratación de software
EL SURGIMIENTO DE LINUX Y EL SOFTWARE DE CODIGO ABIERTO
El software de código abierto se fundamenta en la premisa de que es superior al software propietario producido de manera comercial  porque miles de programadores de todo el mundo que trabajan sin recibir ningún pago por ello, pueden leer, perfeccionar, distribuir y modificar el código fuente mucho mas rápido, y con resultados más confiables, que los pequeños equipos de programadores que trabajan para una sola empresa de software
Linux
Tal vez el software de código abierto más conocido es el Linux, un sistema operativo derivado de Unix.
            Las aplicaciones para el sistema operativo Linux también  están creciendo con rapidez. Muchas de estas aplicaciones se integran en teléfonos celulares, PDAs y otros dispositivos portátiles.

JAVA EN TODAS PARTES
Java es un lenguaje de programación orientado a objetos independientes del sistema operativo y el procesador que se ha convertido en el entorno de programación interactivo líder para la web.


SOFTWARE  PARA LA INTEGRACION EMPRESARIAL
Parte de la integración de las aplicaciones heredadas se pueden conseguir por medio de software especial denominado middleware, con el cual se crea una interfaz o fuentes sobre los sistemas distintos. El middleware es software que conecta dos aplicaciones independientes para que puedan comunicarse entre si e intercambiar datos.
SUBCONTRATACION DE SOFTWARE
 En la actualidad, la mayoría de las empresas continúan operando sus sistemas heredados, los cuales aun satisfacen una necesidad de negocios y cuyo reemplazo seria extremadamente costoso.


ASPECTOS DE ADMINISTRACION
            La creación y manejo de una infraestructura TI coherente da lugar a diversos retos: manejo de la estabilidad y el cambio tecnológico, administración y gobierno, e inversiones acertadas en infraestructura.

MANEJO DEL CAMBIO EN LA INFRAESTRUCTURA
A medida que crecen, las empresas pueden rebasar rápidamente su infraestructura. Por el contrario, a medida que se reducen, pueden verse obligadas a cargar con una infraestructura excesiva adquirida en tiempos mejores.

ADMINISTRACION Y GOBIERNO
Una pregunta relacionada con esta es si la empresa debe comprar sus propios componentes y infraestructura de TI o rentarlos de proveedores externos. Como ya lo describimos, una tendencia cada vez mas fuerte en las plataformas de computo.




CAPITULO 6: FUNDAMENTOS DE LA INTELIGENCIA DE NEGOCIOS Y ADMINISTRACIÓN DE BASES DE DATOS DE INFORMACIÓN

Un sistema efectivo de información da a los usuarios información exacta, oportuna y relevante. La información exacta está libre de errores. La información es oportuna cuando está disponible en el momento que la requieren los encargados de la toma de decisiones. La información es relevante cuando es útil y adecuada para los tipos de trabajo y decisiones que la necesitan.

Conceptos de organización de archivos

 
Un sistema de cómputos organiza los datos en una jerarquía que empieza con bits y bytes y avanza a campos, registros archivos y bases de datos

Un Bit representa la unidad más pequeña de datos que puede manejar una computadora.
Un grupo de bits, llamado un Byte, representa un carácter, el cual puede ser una letra, un número u otro símbolo.

Problemas con el entorno tradicional de archivos 

En la mayoría de las organizaciones, los archivos de datos y los sistemas marcaban una tendencia a crecer de manera independiente sin ajustarse a un plan a nivel de toda la empresa. Cada sector desarrollaba sus propios sistemas y archivos de datos.

Desde luego, para operar, cada aplicación requería sus propios archivos y su propio programa de cómputo. Al considerar a la compañía en su conjunto, este proceso conducía a múltiples archivos maestros creados, conservados y operados por divisiones o departamentos separados. Al cabo de 5 o 10 años, la organización se encuentra con una carga de cientos de programas y aplicaciones muy difíciles de mantener y manejar. Los problemas resultantes son redundancia e inconsistencia de datos, dependencia entre los programas y los datos, inflexibilidad, una escasa seguridad de datos y la incapacidad de compartir datos entre aplicaciones.

Redundancia de datos es la presencia de datos duplicados en múltiples archivos de datos, de tal manera que los mismos datos están almacenados en más de un lugar. La redundancia de datos desperdicia recursos de almacenamiento y también conduce a la Inconsistencia de datos, en el cual el mismo atributo podría tener valores diferentes. Al utilizar diferentes sistemas de codificación para representar los valores de un atributo se podría generar confusión adicional (ejemplo ropa extra grande vs XL). La confusión resultante dificultaría que las Compañías crearan sistemas de administración de las relaciones con el cliente, de administración de la cadena de suministro o empresariales, que integraran los datos desde fuentes diferentes.

Dependencia entre los programas y los datos: se refiere a la estrecha relación entre los datos almacenados en archivos y los programas específicos que se requieren para actualizar y mantener esos archivos, de tal manera que los cambios en los programas requieren cambios a los datos.

Carencia de flexibilidad: Un sistema tradicional de archivos puede enviar informes programados de rutina, después de extensos esfuerzos de programación, pero no pueden transmitir informes con fines específicos o responder de manera oportuna a requerimientos imprevistos de información. Seguridad escasa: Dado que hay poco control o administración de datos, el acceso y difusión de la información podrían salirse de control. Es posible que la administración no tenga forma de saber quién esté teniendo acceso a los datos de la organización, o incluso modificándolos.

Carencia de compartición y disponibilidad de los datos: Debido a que la información está fragmentada en diferentes archivos y en distintas partes de la organización no se pueden relacionar entre sí, es prácticamente imposible que la información se comparta o se acceda de manera oportuna. La información no puede fluir libremente a través de las diferentes áreas funcionales o distintas partes de la organización.

Una Base de Datos es un conjunto de datos organizados para servir eficientemente a muchas aplicaciones al centralizar los datos y controlar su redundancia. Los datos se guardan físicamente para que se presenten a los usuarios como si estuvieran almacenados en un solo lugar. Una sala base de datos da servicios a múltiples aplicaciones.

Sistemas de administración de Base de Datos (DBMS)

Un sistema de administración de base de datos (DBMS) es el software que permite a una organización centralizar los datos, administrarlos eficientemente y proporcionar, mediante los programas de aplicación, el acceso a los datos almacenados. El DBMS actúa como una interfaz entre los programas de aplicación y los archivos de datos físicos. Cuando el programa de aplicación solicita un elemento de datos, el DBMS encuentra este elemento en la base de datos y lo presenta al programa de aplicación.

Cómo resuelve un DBMS los problemas del entorno de archivo tradicional

Un DBMS reduce la redundancia y la inconsistencia de datos al minimizar la cantidad de archivos aislados en los cuales se repiten los mismos datos. El DBMS ayuda a la organización a controlar la redundancia de datos. Un DBMS elimina la inconsistencia de los datos porque puede ayudar a la organización a asegurarse de que todas las ocurrencias de los datos redundantes tengan los mismos valores. El DBMS elimina la dependencia entre los programas y los datos, permitiendo a estos últimos ser autosuficientes.

DBMS relacional

 
Las Bases de datos relacionales representan los datos como tablas bidimensionales (llamadas relaciones). Las tablas podrían considerarse como archivos. Cada tabla contiene datos acerca de una entidad y sus atributos. 

DBMS jerárquico y de red

Un DBMS jerárquico modela relaciones uno a muchos, en tanto que uno de red modela relaciones muchos a muchos. Ya no se utilizan porque son mucho menos flexibles que los DBMS relacionales y no soportan consultas con fines específicos, como las consultas de información en lenguaje natural. Estos sistemas se vuelven lentos si se requieren acceder una gran cantidad de veces a los datos almacenados en el disco para ejecutar los comandos seleccionar, unir y proyectar. 

DBMS orientados a objetos

Un DBMS orientado a objetos almacena los datos y los procedimientos que realizan operaciones sobre estos datos como objetos que se pueden recuperar y compartir de manera automática. Los sistemas de administración de bases de datos orientadas a objetos (OODBMS) se pueden emplear para manejar los diversos componentes multimedia o subprogramas de Java que se utilizan en las aplicaciones para la Web, las cuales comúnmente integran la información fragmentada de diversas fuentes.

Las empresas utilizan sus bases de datos para dar seguimiento a las transacciones básicas. Pero también, se las necesitan para suministrar información que ayudará a la empresa a manejar los negocios de manera más eficiente, y que ayudará a los gerentes y a los empleados a tomar mejores decisiones.

En una empresa grande, con robustas bases de datos o enormes sistemas para cada función (ventas, contabilidad, etc.) se requieren capacidades y herramientas especiales para analizar extensas cantidades de datos y para acceder datos desde múltiples sistemas. Estas incluyen: el almacenamiento de datos, la minería de datos y herramientas para acceder a las bases de datos a través de la Web.

Almacenes de datos

Un almacén de datos es una base de datos que almacena datos actuales e históricos de potencial interés para los encargados de la toma de decisiones de toda la empresa. Los datos se originan en muchos sistemas de transacciones operativas esenciales, y podrían incluir datos derivados de transacciones en sitios Web. El almacén de datos consolida y estandariza información de diferentes bases de datos operativas con el propósito de que la información se pueda utilizar a través de la empresa para el análisis y la toma de decisiones por parte de la administración.

Procesamiento analítico en línea (OLAP)

El procesamiento analítico en línea soporta el análisis de datos multidimensionales, el cual permite a los usuarios ver los mismos datos en diferentes formas utilizando múltiples dimensiones. Cada aspecto de la información -producto, precio, etc- representa una dimensión diferente. OLAP permite a los usuarios obtener respuestas en línea a preguntas específicas en un lapso de tiempo sumamente rápido, aun cuando los datos estén almacenados en bases de datos bastante grandes, como las cifras de ventas de varios años

6.4. Administración de los recursos de datos

Una política de información específica las reglas de la organización para compartir, distribuir, adquirir, estandarizar, clasificar e inventariar la información. Esta establece procedimiento y responsabilidades específicos, que identifican cuáles usuarios y unidades de la organización pueden compartir información, dónde se puede distribuir la información y quién es responsable de actualizar y mantener la información



No hay comentarios.:

Publicar un comentario