miércoles, 30 de mayo de 2007

control+alt+del

nos habra una serie de opciones especialemnte cuado el equipo se cualga nos llev al administrador de tareas para poder cerrar las q se hayan colgado tambien nos lleva al rendimiento donde se ve la capacidad de fincuonalidad de suss equipos odel equipo dependiendo de las aplicaciones q se este empleando

control+alt+del

nos habra una serie de opciones especialemnte cuado el equipo se cualga nos llev al administrador de tareas para poder cerrar las q se hayan colgado tambien nos lleva al rendimiento donde se ve la capacidad de fincuonalidad de suss equipos odel equipo dependiendo de las aplicaciones q se este empleando

msconfig

aca encontramos los archicos de inicio dela co putadora podiendo personalizar el arranque de la misma

regedit

encontramos todas las caracteristicas y dispositivos intaldos en la computadora, esta opcion solo es para usuarios aanzados ya que cualqier modificacion inapropiada podria dañar el sistema

archivos principales del S.O

comand.com:

nombre de interprete de comandos dos primer programa q se ejecuta despies del inicio de windows "cmd.exe"

autoexec.bat:

MS DOS, archivo por lotes de texto, esta en la raiz windows se ejecuta una vez arrancado el y haya porcesado config.sys antes de ser lanzado el entorno grafico.

config.sys:

MSDOS contiene intrucciones de inicializacion del sistema, para usar aplicaciones y disposotivos del sistema

win.ini:

archivo leido por windows al iniciar el computador (datos escritorio, fuentes, sonidos, etc)

io.sys:

conju. intrucciones transferencia in/out desde perifericos a memoria, contiene drives de arranque

regedit:

herramientas avanzadas cambiar cofiguracion de registro del sistema

msconfig:

solucionar problemas windows

discos duros

ide:

integrated drive electronics. la interfaz ide o ata

ata:

aduanced technology atachment. controla los dispositivos de almacenamiento masivo de datos DP.

atapi:

aduanc technology atachment packet interfaz, añade dispositivos cd rom, ide

scsi:

small computer system interfaz. interfaz standart para la transferencia de datos entre perifericos en el bus del ordenador. para montar un dispostvo d eDD es necesario un controlador scsi

discos ata

Serial ATA es el nuevo estándar de conexión de discos duros. Hasta hace relativamente poco tiempo, en el mercado del consumo se hacía uso del interfaz ATA normal o Pararell ATA, del que existen variedades de hasta 133Mbytes/seg teóricos. Dicho interfaz consistía en unas fajas planas a las cuales se podían conectar hasta dos discos duros (o unidades ópticas).


Serial ATA, la nueva tecnología, es totalmente compatible con la anterior, de manera que no habrá problemas de compatibilidad con los sistemas operativos. De hecho se pueden encontrar conversores con el formato antiguo, es cierto que a nivel físico está más cercano de lo que sería un puerto Firewire o un USB, aunque únicamente disponible para la conexión de unidades internas.


Ventajas que nos reporta este nuevo sistema? En cuanto velocidad hay ventajas, sí, ya que la nueva interfaz comienza trabajando a 150Mbytes/seg (133 como máximo en ATA), sin embargo la máxima mejora respecto al sistema anterior (en mi opinión) es el tipo de cableado que se utiliza, mucho más fino y aerodinámico que el anterior , lo que permite que estos cables, al ser muchísimo más finos, faciliten el flujo de aire dentro de la caja, reduciendo el calentamiento de nuestro equipo. Otra de las mejoras de este tipo de cableado es que permite hasta 1 metro de longitud (medio metro en ATA).


Respecto al cable de alimentación también es diferente al de los discos ATA originales, y las tensiones de trabajo son menores, además no es necesaria la configuración “Master/Slave” tradicional. En los dibujos de abajo se puede ver la diferencia en las conexiones, disco tradicional ATA a la izquierda y un Serial ATA a la derecha.

Discos IDE

El interfaz IDE (más correctamente denominado ATA, el estándar de normas en que se basa) es el más usado en PCs normales, debido a que tiene un balance bastante adecuado entre precio y prestaciones. Cronológicamente, y empezando por el primero no encontramos con los primeros discos IDE con su limitación a 528 Mb. y pudiendo solo conectar hasta 2 de ellos.

Después vinieron los discos EIDE (FastATA), desarrollados por la compañía Western Digital, compatibles con los primeros, pero con algunas mejoras, basadas en la especificación ATA-2, que ya soporta unidades de CD-ROM (ATAPI) y de cinta.Otra mejora importante es el soporte de 2 canales para conectar hasta 4 unidades.Además se definen varios modos de transferencia de datos, que llegan hasta los 16,6 Mb./seg. como el PIO-4, o mejor aún el DMA-2, que soporta la misma tasa pero sin intervención de la CPU.

La última especificación, desarrollada por Quantum es la Ultra DMA/33 (UltraATA), que permite transferencias DMA a 33 Mb./seg.

Después surgieron otros discos duros más rápidos como son el Ultra DMA/66, con velocidades de transferencia de 66 Mb./seg. y recientemente el Ultra DMA/100, con una velocidad de 100 Mb./seg.

Se está diseñando una nueva tecnología la Ultra DMA/133, la cual alcanzaría la cifra tope de 133 Mb./seg.

viernes, 25 de mayo de 2007

caja negra

Sinónimos:
· pruebas de caja opaca
· pruebas funcionales
· pruebas de entrada/salida
· pruebas inducidas por los datos

Las pruebas de caja negra se centran en lo que se espera de un módulo, es decir, intentan encontrar casos en que el módulo no se atiene a su especificación. Por ello se denominan pruebas funcionales, y el probador se limita a suministrarle datos como entrada y estudiar la salida, sin preocuparse de lo que pueda estar haciendo el módulo por dentro.Las pruebas de caja negra están especialmente indicadas en aquellos módulos que van a ser interfaz con el usuario (en sentido general: teclado, pantalla, ficheros, canales de comunicaciones, etc.) Este comentario no obsta para que sean útiles en cualquier módulo del sistema.Las pruebas de caja negra se apoyan en la especificación de requisitos del módulo. De hecho, se habla de "cobertura de especificación" para dar una medida del número de requisitos que se han probado. Es fácil obtener coberturas del 100% en módulos internos, aunque puede ser más laborioso en módulos con interfaz al exterior. En cualquier caso, es muy recomendable conseguir una alta cobertura en esta línea.
El problema con las pruebas de caja negra no suele estar en el número de funciones proporcionadas por el módulo (que siempre es un número muy limitado en diseños razonables); sino en los datos que se le pasan a estas funciones. El conjunto de datos posibles suele ser muy amplio (por ejemplo, un entero).
Limitaciones:

Lograr una buena cobertura con pruebas de caja negra es un objetivo deseable; pero no suficiente a todos los efectos. Un programa puede pasar con holgura millones de pruebas y sin embargo tener defectos internos que surgen en el momento más inoportuno (Murphy no olvida).Por ejemplo, un PC que contenga el virus Viernes-13 puede estar pasando pruebas de caja negra durante años y años. Sólo falla si es viernes y es día 13; pero ¿a quién se le iba a ocurrir hacer esa prueba? Las pruebas de caja negra nos convencen de que un programa hace lo que queremos; pero no de que haga (además) otras cosas menos aceptables.

caja blanca

Caja Blanca:La ejecución de pruebas de caja blanca puede llevarse a cabo con un depurador (que permite le ejecución paso a paso), un listado del módulo y un rotulador para ir marcando por dónde vamos pasando. Esta tarea es muy tediosa, pero puede ser automatizada. Hay compiladores que a la hora de generar código máquina dejan incrustado en el código suficiente código como para poder dejar un fichero (tras la ejecución) con el número de veces que se ha ejecutado cada sentencia, rama, bucle, etc.
Limitaciones:

Lograr una buena cobertura con pruebas de caja blanca es un objetivo deseable; pero no suficiente a todos los efectos. Un programa puede estar perfecto en todos sus términos, y sin embargo no servir a la función que se pretende.Por ejemplo, un Rolls-Royce es un coche que sin duda pasaría las pruebas más exigentes sobre los últimos detalles de su mecánica o su carrocería. Sin embargo, si el cliente desea un todo-terreno, difícilmente va a comprárselo.Por ejemplo, si escribimos una rutina para ordenar datos por orden ascendente, pero el cliente los necesita en orden decreciente; no hay prueba de caja blanca capaz de detectar la desviación.Las pruebas de caja blanca nos convencen de que un programa hace bien lo que hace; pero no de que haga lo que necesitamos.

sistemas enlatados

Los programas enlatados o standard ya no son ni baratos ni veloces, ni prácticos cuando deben trabajar en red, impidiendo el crecimiento de la empresa. En el lado opuesto, los programas a medida no varían su costo con la cantidad de terminales y están diseñados especialmente para manejar gran cantidad de datos, sin perder abruptamente eficiencia.También tienen mejor respuesta de los programas a medida ante problemas típicos de la computación: Virus, cortes de luz, caída de red, robos, falla de disco, etc.La respuesta de los programas standard ante tal situación suele ser "compre de nuevo, cargue de nuevo, empiece de nuevo"Los programas enlatados muchas veces requieren realizar cursos onerosos para poder utilizarlos, pues son muy complicados de instalar y configurar. Eso demora también su implementación y obliga a tener siempre una persona especializada dentro de la empresa que haya realizado dicho curso. La programación a medida se hace teniendo en cuenta los recursos humanos que posee la empresa, tratando de adaptar el programa a dichos recursos. Son más eficientes en el uso: No existe vehículo que sirva como auto, bote, bus, camión, y avión.Sería ineficiente e incómodo en cada función requerida. En programas, todo lo que sea parametrizable termina complicándolo y lo vuelve ineficiente. Se puede hacer un programa vistoso si por ello no se lo hace lento. Pero lo más importante en el mundo competitivo de hoy es la mayor velocidad y facilidad de su adaptabilidad al entorno, nuevas reglas comerciales, gubernamentales, o nuevas ideas. Es hoy la mejor virtud de un programa.

kuml

el kUML es alrededor ser el mejor UML que modela la herramienta disponible en la red. It' s usable con KDE2 (por supuesto) y otros ambientes de escritorio. El kUML está actualmente en el desarrollo pesado tan don' uso de t él para tus proyectos todavía. ¡Permanecerte en contacto!!!。

Business Process Management (BPM)

Disciplina empresarial cuyo objetivo es mejorar la eficiencia a través de la gestión sistemática de los procesos de negocio (BPR), que se deben modelar, automatizar, integrar, monitorizar y optimizar de forma continua.
Como su nombre lo sugiere Business Process Management (BPM) se enfoca en la administración de los procesos del negocio.

A través del modelado de las actividades y procesos logramos un mejor entendimiento del negocio y muchas veces esto presenta la oportunidad de mejorarlos. La automatización de los procesos reduce errores, asegurando que los mismos se comporten siempre de la misma manera y dando elementos que permitan visualizar el estado de los mismos. La administración de los procesos nos permite asegurarnos de que los mismos estén ejecutándose eficientemente y obtener información que luego puede ser usada para mejorarlos. Es a través de la información que se obtiene de la ejecución diaria de los procesos que se puede identificar posibles ineficiencias en los mismos y de esta forma optimizarlos.

Para soportar esta estrategia es necesario contar con un conjunto de herramientas que den el soporte necesario para cumplir con el ciclo de vida de BPM. Este conjunto de herramientas son llamadas Business Process Management System y con ellas se construyen aplicaciones BPM.

Planificación de recursos empresariales(erp)

Los sistemas de planificación de recursos empresariales (ERP) son sistemas de información gerenciales que integran y manejan muchas de de los negocios asociados con las operaciones de producción y de los aspectos de distribución de una compañía comprometida en la producción de bienes o servicios.

La Planificación de Recursos Empresariales es un término derivado de la Planificación de Recursos de Manufactura (MRPII) y seguido de la Planificación de Requerimientos de Material (MRP). Los sistemas ERP típicamente manejan la producción, logística, distribución, inventario, envíos, facturas y una contabilidad para la compañía de la Planificación de Recursos Empresariales o el software ERP puede intervenir en el control de muchas actividades de negocios como ventas, entregas, pagos, producción, administración de inventarios, calidad de administración y la administración de recursos humanos.

Los sistemas ERP ocasionalmente son llamados back office (trastienda) ya que indican que el cliente y el público general no están directamente involucrados. Este sistema es, en contraste con el sistema de apertura de datos (front office), que crea una relación administrativa del consumidor o servicio al consumidor (CRM), un sistema que trata directamente con los clientes, o con los sistemas de negocios electrónicos tales como comercio electrónico, gobierno electrónico, telecomunicaciones electrónicas y finanzas electrónicas; así mismo, es un sistema que trata directamente con los proveedores, no estableciendo únicamente una relación administrativa con ellos (SRM).

Los ERP están funcionando ampliamente en todo tipo de empresas modernas. Todos los departamentos funcionales que están involucrados en la operación o producción están integrados en un solo sistema. Además de la manufactura o producción, almacenamiento, logística e información tecnológica, incluyen además la contabilidad, y suelen incluir un recursos humanos, y herramientas de mercadotecnia y administración estratégica.

Sistemas de workflow

El propósito de los sistemas de workflow, o BPMS - Business Process Management Systems, es acercar personas, procesos y máquinas, con el objeto de reducir tiempo y acelerar la realización de un trabajo. Estos sistemas permiten trabajar en equipo desde diferentes lugares físicos.
Los sistemas de workflow facilitan la automatización de los flujos de trabajo entre procesos y permiten integrar los procesos de la empresa, rediseñados de acuerdo con ayuda de nuevas estrategias.

Existen en el mercado varias productos como ser openEDMS, wf.com.mx, cardif, IBM, etc.
Existen muchas metodologías que culminan en la implementación de un sistema de este tipo como son Diagrama de Roles, BPMN, IDEF0, Ciclos de trabajo, etc.

Copyright

El derecho de autor (del francés droit d'auteur) es un conjunto de normas y principios que regulan los derechos morales y patrimoniales que la ley concede a los autores (los derechos de autor), por el solo hecho de la creación de una obra literaria, artística o científica, tanto publicada o que todavía no se haya publicado.

En el derecho anglosajón se utiliza la noción de copyright que, por lo general, comprende la parte patrimonial de los derechos de autor.

Una obra pasa al dominio público cuando los derechos patrimoniales han expirado. Esto sucede habitualmente trascurrido un plazo desde la muerte del autor (post mortem auctoris). Por ejemplo, en el derecho europeo, 70 años desde la muerte del autor. Dicha obra entonces puede ser utilizada en forma libre, respetando los derechos morales.

Copyleft

Copyleft o copia permitida (=left(de leave) =granted)[1] describe un grupo de derechos aplicados a una diversidad de trabajos tales como programas informáticos, arte, cultura y ciencia, es decir prácticamente casi cualquier tipo de producción creativa.
Sus partidarios la proponen como alternativa a las restricciones de derechos para hacer y redistribuir copias de una obra determinada de las normas planteadas en los derechos de autor o propiedad intelectual. Se pretende garantizar así una mayor libertad, cada persona receptora de una copia o una versión derivada de un trabajo pueda, a su vez usar, modificar y redistribuir tanto el propio trabajo como las versiones derivadas del mismo. Así, y en un entorno no legal, puede considerarse como opuesto al copyright o derechos de autor tradicionales.

Lantastic

Popular sistema operativo de LAN par a par para computadores personales de Artisoft, Inc., Tucson, AZ. Soporta adaptadores Ethernet, ARCNET y Token Ring, así como su propio adaptador de par trenzado a dos Mbits/seg.

Linux

Linux es la denominación de un sistema operativo tipo-Unix y el nombre de un núcleo. Es uno de los paradigmas más prominentes del software libre y del desarrollo del código abierto, cuyo código fuente está disponible públicamente y cualquier persona puede libremente usarlo, estudiarlo, redistribuirlo y, con los conocimientos informáticos adecuados, modificarlo.

Los primeros sistemas Linux se originaron en 1992, al combinar utilidades de sistema y librerías del proyecto GNU con el núcleo Linux, completando un sistema también conocido como GNU/Linux. Desde fines de 1990 Linux ha obtenido el apoyo de diversas empresas multinacionales del mundo de la informática, tales como IBM, Sun Microsystems, Hewlett-Packard y Novell.

Unix

Unix® (o UNIX) es un sistema operativo portable, multitarea y multiusuario; desarrollado en principio por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.
Hoy día, la palabra UNIX se utiliza para denotar diferentes conceptos dependiendo del contexto en que es usada. Esto suele dar lugar a confusiones:

  • UNIX - familia: desde el punto de vista técnico, UNIX se refiere a una familia de sistemas operativos que comparten unos criterios de diseño e interoperabilidad en común. Esta familia incluye más de 100 sistemas operativos desarrollados a lo largo de 20 años. No obstante, es importante señalar que esta definición no implica necesariamente que dichos sistemas operativos compartan código o cualquier propiedad intelectual.

  • UNIX - el sistema operativo original: desde el punto de vista histórico, UNIX se refiere a la subfamilia de sistemas operativos que descienden de la primera implementación original de AT&T. El término "descendencia" ha de interpretarse como trabajos derivativos que comparten propiedad intelectual con la implementación original.

  • UNIX - la marca: desde el punto de vista legal, Unix es una marca de mercado. Dicha marca es propiedad de “The Open Group”, una organización de estandarización que permite el uso de dicha marca a cualquier sistema operativo que cumpla con sus estándares publicados (Single Unix Specification). Todo ello independientemente de que el sistema operativo en cuestión sea descendiente o clónico del Unix original. Resumiendo, la marca Unix no es propiedad de ninguna compañía.

Novell NetWare

Novell Netware es un sistema operativo de red producido por la empresa Novell. NetWare es una de las plataformas de servicio más fiable para ofrecer acceso seguro y continuado a la red y los recursos de información, sobre todo en cuanto a servidores de archivos. Aunque el producto Windows de Microsoft nunca soportó una comparación con Netware, el retiro en 1995 de Ray Noorda junto al escaso marketing de Novell hicieron que el producto perdiera mercado, aunque no vigencia por lo que se ha anunciado soporte sobre este sistema operativo hasta el año 2015, por lo menos.

miércoles, 23 de mayo de 2007

asp

Active Server Pages (ASP) es una tecnología del lado servidor de Microsoft para páginas web generadas dinámicamente, que ha sido comercializada como un anexo a Internet Information Server (IIS).
La tecnología ASP está estrechamente relacionada con el modelo tecnológico de su fabricante. Intenta ser solución para un modelo de programación rápida ya que programar en ASP es como programar en VisualBasic, por supuesto con muchas limitaciones ya que es una plataforma que no se ha desarrollado como lo esperaba Microsoft.
Lo interesante de este modelo tecnológico es poder utilizar diversos componentes ya desarrollados como algunos controles ActiveX. Otros problemas que han hecho evolucionar esta tecnología es el no disponer de información "que oriente a quienes desean aprenderla y resulta muy costosa en tiempo descubrir aquí y allá toda la información para volverla altamente útil".
ASP ha pasado por cuatro iteraciones mayores, ASP 1.0 (distribuido con IIS 3.0), ASP 2.0 (distribuido con IIS 4.0), ASP 3.0 (distribuido con IIS 5.0) y ASP.NET (parte de la plataforma .NET de Microsoft). Las versiones pre-.NET se denominan actualmente (desde 2002) como ASP clásico.
En el último ASP clásico, ASP 3.0, hay seis objetos integrados disponibles para el programador, Application, ASPError, Request, Response, Server y Session. Cada objeto tiene un grupo de funcionalidades frecuentemente usadas y útiles para crear páginas web dinámicas.

Framework

En el desarrollo de software, un framework es una estructura de soporte definida en la cual otro proyecto de software puede ser organizado y desarrollado. Típicamente, un framework puede incluir soporte de programas, bibliotecas y un lenguaje de scripting entre otros softwares para ayudar a desarrollar y unir los diferentes componentes de un proyecto.
Un framework representa una arquitectura de software que modela las relaciones generales de las entidades del dominio. Provee una estructura y una metodología de trabajo la cual extiende o utiliza las aplicaciones del dominio.
Los Frameworks son diseñados con el intento de facilitar el desarrollo de software, permitiendo a los diseñadores y programadores pasar más tiempo identificando requerimientos de software que tratando con los tediosos detalles de bajo nivel de proveer un sistema funcional. Por ejemplo, un equipo que usa Apache Struts para desarrollar un sitio web de un banco puede enfocarse en cómo los retiros de ahorros van a funcionar en lugar de preocuparse de cómo se controla la navegación entre las páginas en una forma libre de errores. Sin embargo, hay quejas comunes acerca de que el uso de frameworks añade código innecesario y que la preponderancia de frameworks competitivos y complementarios significa que el tiempo que se pasaba programando y diseñando ahora se gasta en aprender a usar frameworks.
Fuera de las aplicaciones en la informática, un framework puede ser considerado como el conjunto de procesos y tecnologías usados para resolver un problema complejo. Es el esqueleto sobre el cual varios objetos son integrados para una solución dada.

balance scorecard

La visión y la estrategia de negocios dictan el camino hacia el que deben encaminarse los esfuerzos individuales y colectivos de una empresa. La definición de estrategias por naturaleza es complicada, pero la implementación de la misma representa el mayor obstáculo en la mayoría de las ocasiones. El reto corresponde en identificar exactamente lo que debe monitorearse, para comunicar en todos los niveles de la empresa, si se están alcanzando las estrategias a través de acciones muy puntuales.

Balanced Scorecard es la principal herramienta metodológica que traduce la estrategia en un conjunto de medidas de la actuación, las cuales proporcionan la estructura necesaria para un sistema de gestión y medición.

El acceso a los principales almacenes de información brinda la posibilidad de presentar los resultados de desempeño y entender por qué están dándose esos resultados.
La ventaja de BITAM es que no tiene que preocuparse más que en establecer la estructura muy particular del BSC de su empresa y nosotros obtenemos las cifras de los indicadores de sus fuentes, y los plasmamos en un Tablero de Comunicación y Control realizado específicamente para dar el soporte de decisiones que el usuario requiere. Nos especializamos en diseñar herramientas para comunicar y traducir la visión y estrategia al interior de la empresa, presentando un mapa estratégico sobre el cual pueda moverse para conocer, en su empresa o en su unidad de negocio, el comportamiento de los indicadores pasados, para influir sobre los futuros.







Beneficios

El Balanced Scorecard induce una serie de resultados que favorecen la administración de la compañía, pero para lograrlo es necesario implementar la metodología y la aplicación para monitorear, y analizar los indicadores obtenidos del análisis. Entre otros podemos considerar las siguientes ventajas:


. Alineación de los empleados hacia la visión de la empresa.. Comunicación hacia todo el personal de los objetivos y su- cumplimiento.. Redefinición de la estrategia en base a resultados.. Traducción de la visión y estrategias en acción.. Favorece en el presente la creación de valor futuro.. Integración de información de diversas áreas de negocio.. Capacidad de análisis.. Mejoría en los indicadores financieros.. Desarrollo laboral de los promotores del proyecto.
Orígenes del Balanced Scorecard (BSC)
Como con cualquier concepto nuevo, existen seguidores, pero también detractores del mismo. El antecedente más reconocido del Balanced Scorecard es el Tableau de Bord surgido en Francia, el cual presentaba indicadores financieros y no financieros para controlar los diferentes procesos de negocios.

Desde la década de los sesenta existían diferentes acercamientos para el control de los procesos de negocios. La idea siempre giraba en torno a seleccionar un conjunto de indicadores que pudieran ser construidos para apoyar la gestión, solo que normalmente las áreas de negocio eran definidas y fijas. De hecho, los acercamientos eran de compañías muy específica, no como parte de una cultura general que comenzara a extenderse.

General Electric y Citibank son de las empresas que fueron pioneras en la construcción de modelos de seguimiento y control de objetivos basados en indicadores. BSC indudablemente recoge la idea de usar indicadores para evaluar la estrategia, pero agrega, además, otras características que lo hacen diferente y más interesante, y le han permitido evolucionar desde su propia e inicial definición en 1992, "un conjunto de indicadores que proporcionan, a la alta dirección, una visión comprensiva del negocio", para "ser una herramienta de gestión que traduce la estrategia de la empresa en un conjunto coherente de indicadores." La diferencia importante del Tableau de Bord con respecto al BSC es que, antes, se generaban una serie de indicadores financieros y no financieros, y éstos se dejaban a cada directivo para que pudiera, en base a su experiencia, seleccionar aquellos que consideraban más importantes para su trabajo. El BSC disminuye la posibilidad de error de una persona, ya que los indicadores son definidos por un conjunto multidisciplinario de sujetos que no da opción a seleccionar o no seleccionar algunos de ellos, simplemente si está dentro de los indicadores es porque es relevante en algún punto para la implantación de la estrategia o el seguimiento de la misma.

En el BSC es indispensable primero definir el modelo de negocio del cual se desprenderán los indicadores de acción y de resultados, que reflejarán las interrelaciones entre los diferentes componentes de la empresa. Una vez construido, los directivos utilizan este modelo como mapa para seleccionar los indicadores del BSC.

¿Qué es Balanced Scorecard?

En 1992, Kaplan y Norton de Harvard University revolucionaron la administración de empresas al introducir un concepto bastante efectivo para alinear la empresa hacia la consecución de las estrategias del negocio, a través de objetivos e indicadores tangibles. La principal innovación fue la introducción de mediciones sobre los intangibles como requisitos indispensables para alcanzar los objetivos financieros.


Puede entenderse al BSC como una herramienta o metodología, lo importante es que convierte la visión en acción mediante un conjunto coherente de indicadores agrupados en 4 categorías de negocio.

Según Mario Vogel, "BSC lo ayuda a balancear, de una forma integrada y estratégica, el progreso actual y suministra la dirección futura de su empresa, para ayudarle a convertir la visión en acción por medio de un conjunto coherente de indicadores, agrupados en 4 diferentes perspectivas, a través de las cuales se puede ver el negocio en su totalidad."
Las 4 categorías de negocio son: Financieras, Clientes, Procesos Internos y Formación y Crecimiento. BSC sugiere que estas perspectivas abarcan todos los procesos necesarios para el correcto funcionamiento de una empresa y deben ser considerados en la definición de los indicadores. De acuerdo a las características propias de cada negocio pueden existir incluso más, pero difícilmente habrá menos de las mencionadas.

El equilibrio entre los indicadores es lo que da nombre a la metodología, pues se presenta un balance entre los externos relacionados con accionistas y clientes, y los internos de los procesos, capacitación, innovación y crecimiento; también existe un equilibrio entre indicadores de resultados, los cuales ven los esfuerzos (principalmente económicos) pasados e indicadores que impulsan la acción futura (capacitación, innovación, aprendizaje, etc.).


El BSC permite tener el control del estado de salud corporativa y la forma como se están encaminando las acciones para alcanzar la visión. A partir de la visualización y el análisis de los indicadores balanceados, pueden tomarse acciones preventivas o correctivas que afecten el desempeño global de la empresa.

Por sus características, le BSC puede implementarse a nivel corporativo o en unidades de negocio con visión y estrategias de negocios definidas y que mantengan cierta autonomía funcional.

Perspectivas del Balanced Scorecard

A pesar de que son 4 las perspectivas que tradicionalmente identifican un BSC, no es indispensable que estén todas ellas; estas perspectivas son las más comunes y pueden adaptarse a la gran mayoría de las empresas que no constituyen una condición indispensable para construir un modelo de negocios.

Perspectiva financiera. Históricamente los indicadores financieros han sido los más utilizados, pues son el reflejo de lo que está ocurriendo con las inversiones y el valor añadido económico, de hecho, todas las medidas que forman parte de la relación causa-efecto, culminan en la mejor actuación financiera.


Perspectiva del cliente. Como parte de un modelo de negocios, se identifica el mercado y el cliente hacia el cual se dirige el servicio o producto. La perspectiva del cliente es un reflejo del mercado en el cual se está compitiendo.Brinda información importante para generar, adquirir, retener y satisfacer a los clientes, obtener cuota de mercado, rentabilidad, etc. "La perspectiva del cliente permite a los directivos de unidades de negocio articular la estrategia de cliente basada en el mercado, que proporcionará unos rendimientos financieros futuros de categoría superior." (Kaplan & Norton)

Perspectiva procesos internos. Para alcanzar los objetivos de clientes y financieros es necesario realizar con excelencia ciertos procesos que dan vida a la empresa. Esos procesos en los que se debe ser excelente son los que identifican los directivos y ponen especial atención para que se lleven a cabo de una forma perfecta, y así influyan a conseguir los objetivos de accionistas y clientes.

Perspectiva de formación y crecimiento. Es la perspectiva donde más tiene que ponerse atención, sobre todo si piensan obtenerse resultados constantes a largo plazo.Aquí se identifican la infraestructura necesaria para crear valor a largo plazo. Hay que lograr formación y crecimiento en 3 áreas: personas, sistemas y clima organizacional. Normalmente son intangibles, pues son identificadores relacionados con capacitación a personas, software o desarrollos, máquinas e instalaciones, tecnología y todo lo que hay que potenciar para alcanzar los objetivos de las perspectivas anteriores.

¿Cómo se usa?

La filosofía principal para sugerir perspectivas de indicadores es que todos ellos, en perfecto balance, abarcan casi la totalidad de los indicadores necesarios para monitorear la empresa, pero la pregunta es como vincular las distintas perspectivas.


Todo lo que pasa en cualquier empresa es un conjunto de hipótesis sobre la causa y efecto entre indicadores. Cualquier acción que se ejecute, tendrá un impacto directo sobre otra variable, es por eso que la perspectiva de Formación y Crecimiento es la base que permite crear la infraestructura necesaria para crecer en las otras perspectivas. Lo importante es saber que ninguna perspectiva funciona en forma independiente, sino que puede iniciarse una acción con alguna de ellas y repercutirá sobre todas las demás.


Un ejemplo simple puede ilustrar esta situación: Supongamos que los empleados necesitan capacitación e instalaciones adecuadas para estar satisfechos y, por extensión, realizar bien su trabajo; si realizan bien su trabajo de forma individual estarán realizando procesos de negocio complejos que afectarán directamente el producto o servicio ofrecido para que éste sea de mejor calidad; un buen servicio provocará que el cliente esté satisfecho, recomiende y, por extensión, incremente la cuota de mercado, lo cual a su vez repercutirá en mayores ingresos y rentabilidad.
Pareciera un ejemplo muy trivial, pero de alguna forma es como afectan ciertas perspectivas sobre todas las demás. Cada una de las medidas forma parte de la cadena de relaciones causa-efecto que dan significado a la estrategia en la unidad de negocio.

OLAP

OLAP es el acrónimo en inglés de procesamiento analítico en línea (On-Line Analytical Processing). Es una solución utilizada en el campo de la Inteligencia de Negocios (Business Intelligence), la cual consiste en consultas a estructuras multidimensionales (o Cubos OLAP) que contienen datos resumidos de grandes Bases de Datos o Sistemas Transaccionales (OLTP). Se usa en informes de negocios de ventas, márketing, informes de dirección, minería de datos y áreas similares.
La razón de usar OLAP para las consultas es la velocidad de respuesta. Una base de datos relacional almacena entidades en tablas discretas si han sido normalizadas. Esta estructura es buena en un sistema OLTP pero para las complejas consultas multitabla es relativamente lenta. Un modelo mejor para búsquedas, aunque peor desde el punto de vista operativo, es una base de datos multidimensional. La principal característica que potencia a OLAP, es que es lo más rápido a la hora de hacer selects, en contraposición con OLTP que es la mejor opción para INSERTS, UPDATES Y DELETES.

OLTP

OLTP (OnLine Transaction Processing) es un tipo de procesamiento de transacciones a través de una red de computadoras. Algunos tipos de aplicaciones OLTP pueden ser banca electrónica, procesamiento de pedidos o comercio electrónico. Es un programa que facilita y administra aplicaciones transaccionales, usualmente para data entry y transacciones en empresas, incluyendo bancos, aerolíneas, etc. Los nuevos paquetes de Software para OLTP se basa en la arquitectura cliente-servidor ya que suelen ser utilizados por empresas que no se encuentran 100% en el mismo medio fisico, sino expandidas geográficamente

Data Mining

Data Mining, la extracción de información oculta y predecible de grandes bases de datos, es una poderosa tecnología nueva con gran potencial para ayudar a las compañías a concentrarse en la información más importante de sus Bases de Información (Data Warehouse). Las herramientas de Data Mining predicen futuras tendencias y comportamientos, permitiendo en los negocios tomar decisiones proactivas y conducidas por un conocimiento acabado de la información (knowledge-driven). Los análisis prospectivos automatizados ofrecidos por un producto así van más allá de los eventos pasados provistos por herramientas retrospectivas típicas de sistemas de soporte de decisión. Las herramientas de Data Mining pueden responder a preguntas de negocios que tradicionalmente consumen demasiado tiempo para poder ser resueltas y a los cuales los usuarios de esta información casi no están dispuestos a aceptar. Estas herramientas exploran las bases de datos en busca de patrones ocultos, encontrando información predecible que un experto no puede llegar a encontrar porque se encuentra fuera de sus expectativas.

Data Warehouse


Data Warehouse es un área de apoyo a la gerencia universitaria. Es un proyecto que, mediante el uso de herramientas como Data Warehouse o Data Mining, le brinda a las Universidades Nacionales la posibilidad de convertir datos en información valiosa.

fiabilidad

El término fiabilidad es descrito en el diccionario de la RAE como "probabilidad de buen funcionamiento de algo".
Referido al comportamiento de un sistema o dispositivo, se define como la "probabilidad de que el dispositivo desarrolle una determinada función, bajo ciertas condiciones y durante un período de tiempo determinado".

sábado, 19 de mayo de 2007

Hub y Switch

Hub

Hub tiene varios significados, según el contexto en el cual es empleado.Tiene los siguientes significados técnicos:En inglés hub es el centro de una rueda, en el que coinciden los radios y donde se encuentra el eje. El término se utiliza internacionalmente para identificar sistemas que mantienen una fuerte dependencia de un punto central.En informática un hub o concentrador es un equipo de redes que permite conectar entre sí otros equipos y retransmite los paquetes que recibe desde cualquiera de ellos a todos los demás. Los hubs han dejado de ser utilizados, debido al gran nivel de colisiones y tráfico de red que propician.En la aviación comercial se entiende por hub un aeropuerto grande del que salen y al que llegan vuelos de larga distancia que se realizan mediante aviones de gran capacidad. Estos aeropuertos grandes tienen también enlaces con ciudades más pequeñas, que son servidas con aviones de tamaño menor. Mediante este sistema las compañías aéreas pueden llenar sus aviones grandes en los trayectos de largo recorrido. En el caso ideal, los horarios de los vuelos de corto alcance están coordinados de tal manera con los vuelos de largo recorrido, que los pasajeros tienen que esperar únicamente el tiempo preciso para tomar el siguiente vuelo.También traducido como "centro de distribución".

Switch

Para el término en programación, véase estructuras de control.Un switch (en castellano "conmutador") es un dispositivo electrónico de interconexión de redes de computadoras que opera en la capa 2 (nivel de enlace de datos) del modelo OSI (Open Systems Interconection). Un switch interconecta dos o más segmentos de red, funcionando de manera similar a los puentes (bridges), pasando datos de un segmento a otro, de acuerdo con la dirección MAC de destino de los datagramas en la red.

Un switch en el centro de una red en estrella.Los switches se utilizan cuando se desea conectar múltiples redes, fusionándolas en una sola. Al igual que los bridges, dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las LANs (Local Area Network- Red de Área Local).Interconexión de switches y bridgesLos bridges y switches pueden ser conectados unos a los otros, pero existe una regla que dice que sólo puede existir un único camino entre dos puntos de la red. En caso de que no se siga esta regla, se forma un bucle en la red, lo que tiene como resultado la transmisión infinita de datagramas de una red a otra.Sin embargo, esos dispositivos utilizan el algoritmo de spanning tree para evitar bucles, haciendo la transmisión de datos de forma segura.

viernes, 18 de mayo de 2007

archivos

♠ AUTOEXEC.BAT:
Cuando una PC arranca mal y no muestra el monitor comodebiera o alguna de esas cosas elementales es porque este archivo no funcionabien. ¿Qué es? Es AUTOMATIC EXECUTE BATCH (archivo de lotes de ejecuciónautomática) Se trata de un archivo que se ejecuta al inicializar el sistemaoperativo y contiene una lista de comandos con las opciones básicas deconfiguración, como el camino para el acceso de archivos. Este archivo era muyimportante antes de aparecer el Windows 98 que lo sustituyó por otros en elboot.
♠ CONFIG.SYS:
Es la carpeta de configuración primaria para MS-DOS y OS/2 (Sistemas Operativos). Es una careta especial que contiene instrucciones de Instalación o configuración para el sistema de la computadora.
♠ Win.Ini:
(WINdows INItialization) Inicialización de Windows. Archivo leído por Windows al inicializarse el computador que contiene datos acerca del entorno actual (escritorio, fuentes, sonidos, etc.) y aplicaciones individuales. Con frecuencia, se actualiza mediante un programa de instalación para proveer información para la aplicación cuando se ejecuta. SYSTEM.INI, otro archivo de inicialización, contiene datos acerca del hardware (controladores, disposiciones 386 modo extendido, etc.)

martes, 15 de mayo de 2007

Abrazo del oso (deadlock)


Un conjunto de procesos está en un abrazo mortal cuando todos los procesos en ese conjunto están esperando un evento que sólo puede ser causado por otro proceso en el conjunto. Los eventos a los cuales nos estamos refiriendo son concernientes con la asignación y liberación de recursos principalmente. Sin embargo, otro tipo de eventos pueden llevar a la existencia de abrazos mortales.El problema de los abrazos mortales no es único al ambiente de los sistemas operativos. Generalizando nuestra interpretación de recursos y procesos, podemos ver que un problema de abrazo mortal puede ser parte de nuestro ambiente de vida diaria.

Condiciones Necesarias para el bloqueoSegún Coffman (1971), existen cuatro condiciones que deben cumplirse para que haya estancamiento. Una situación de abrazo mortal puede surgir sí y solo sí las siguientes cuatro condiciones ocurren simultáneamente en un sistema:Exclusión Mutua. Los procesos reclaman control exclusivo de los recursos que pide. Al menos un recurso es mantenido en un modo no-compartible.Retener y Esperar. Los procesos que regularmente contienen recursos otorgados antes pueden solicitar nuevos recursos. Debe existir un proceso que retenga al menos un recurso y esté esperando para adquirir recursos adicionales que están siendo retenidos por otros procesos.No existe el derecho de desasignar. Los recursos no pueden ser desasignados; esto es, un recurso sólo puede ser liberado voluntariamente por el proceso que lo retiene, después de que el proceso ha terminado su tarea.Espera Circular. Debe haber una cadena de dos o más procesos, cada uno de los cuales esté esperando un recurso contenido en el siguiente miembro de la cadena. Debe existir un conjunto {p0, p1, ...,pn} de procesos en espera tal que p0 esté esperando por un recurso que está siendo retenido por p1, p1 está esperando por un recurso que está siendo retenido por p2, ..., pn-1 está esperando por un recurso que está siendo retenido por pn y pn está esperando por un recurso que está siendo retenido por p0.

Las cuatro condiciones deben de cumplirse para que pueda ocurrir un abrazo mortal. La condición de espera circular implica la condición de retener y esperar, de tal manera que las cuatro condiciones no son totalmente independientes. Sin embargo, puede ser útil el considerar cada condición por separado.Una forma de modelar estas condiciones es usando un grafo de recursos: los círculos representan procesos, los cuadrados recursos. Una arista desde un recurso a un proceso indica que el recurso ha sido asignado al proceso. Una arista desde un proceso a un recurso indica que el proceso ha solicitado el recurso, y está bloqueado esperándolo. Entonces, si hacemos el grafo con todos lo procesos y todos los recursos del sistema encontramos un ciclo, los procesos en el ciclo están bajo bloqueo mutuo.

domingo, 13 de mayo de 2007

Paginación

En sistemas operativos de computadoras, los sistemas de paginación de memoria dividen los programas en pequeñas partes o páginas. Del mismo modo, la memoria es dividida en trozos del mismo tamaño que las páginas llamados marcos de página. De esta forma, la cantidad de memoria desperdiciada por un proceso es el final de su última página, lo que minimiza la fragmentación interna y evita la externa.

En un momento cualquiera, la memoria se encuentra ocupada con páginas de diferentes procesos, mientras que algunos marcos están disponibles para su uso. El sistema operativo mantiene una lista de estos últimos marcos, y una tabla por cada proceso, donde consta en qué marco se encuentra cada página del proceso. De esta forma, las páginas de un proceso pueden no estar contiguamente ubicadas en memoria, y pueden intercalarse con las páginas de otros procesos.

En la tabla de páginas de un proceso, se encuentra la ubicación del marco que contiene a cada una de sus páginas. Las direcciones lógicas ahora se forman como un número de página y de un desplazamiento dentro de esa página. El número de página es usado como un índice dentro de la tabla de páginas, y una vez obtenida la dirección real del marco de memoria, se utiliza el desplazamiento para componer la dirección real. Este proceso es realizado en el hardware del computador.

De esta forma, cuando un proceso es cargado en memoria, se cargan todas sus páginas en marcos libres y se completa su tabla de páginas.

Abrazo del oso

Así que Microsoft ha dado una vuelta de tuerca más a su indudable conocimiento del mercado y ha decidido optar por la vieja táctica del abrazo del oso, que ya utilizara con stacker muchos años atrás de otra manera: básicamente consiste en acercarse al enemigo, abrazarlo como si fuera un amigo... y acto seguido apretar, apretar y apretar hasta matarlo por asfixia. Con Stac Electronics firmó acuerdos para licenciar la tecnología (que luego nunca se concretaron en un pago), consiguió acceso al código fuente, lo copió y lo incorporó a ms-dos. Stac se hundió y años después Microsoft fue condenada a pagar 120 millones de dólares.

hacker vs Cracker

El término actualmente es algo ambiguo, ya que también se utiliza para referirse a:

  • Aficionados a la informática que buscan defectos, puertas traseras y mejorar la seguridad del sofware, así como prevenir posibles errores en el futuro .

  • Delincuentes informáticos, o cracker, que es su uso más extendido, y según algunos grupos de opinion sería incorrecto.

Los llamados crackers (que significa rompedores) o "Black hat" (sombreros negros) usan su conocimiento con fines maliciosos, antimorales o incluso bélicos, como intrusión de redes, acceso ilegal a sistemas gubernamentales, robo de información, distribuir material ilegal o moralmente inaceptable, piratería, fabricación de virus, herramientas de crackeo y elementos de posible terrorismo como la distribución de manuales para fabricar elementos explosivos caseros o la clásica tortura china. El Cracker se distingue del Hacker por sus valores morales, sociales y políticos.

Dentro de la cultura underground del Hacking , Hacker es toda aquella persona con elevados conocimientos informáticos independientemente de la finalidad con que los use. Mientras que Cracker es aquel individuo que se especializa en saltar las protecciones anticopia de software, de ahí el nombre crack para definir los programas que eliminan las restricciones en las versiones de demostración de software comercial.

La escalabilidad

La escalabilidad es la propiedad deseable de un sistema, una red o un proceso, que indica su habilidad para, o bien manejar el crecimiento continuo de trabajo de manera fluida, o bien para estar preparado para hacerse más grande sin perder calidad en los servicios ofrecidos. En general, también se podría definir como la capacidad del sistema informático de cambiar su tamaño o configuración para adaptarse a las circunstancias cambiantes. Por ejemplo, una empresa que establece una red de usuarios por Internet, no solamente quiere que su sistema informático tenga capacidad para acoger a los actuales clientes, sino también a los clientes que pueda tener en el futuro y, también, que pueda cambiar su configuración si es necesario.

viernes, 11 de mayo de 2007

Diferencias entre Pentium 4 y Core dual

El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de 2000.Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6 según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros u operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. Al igual que los demás procesadores de Intel, el Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron), y una orientada a servidores de gama alta (Xeon).Las distintas versiones son: Willamette, Northwood, Extreme Edition, Prescott y Cedar
Un microprocesador multi núcleo es aquel que combina dos o más procesadores independientes en un solo paquete, a menudo un solo circuito integrado (IC). Un dispositivo doble núcleo contiene solamente dos microprocesadores independientes. En general, microprocesadores multi núcleo permiten que un dispositivo computacional exhiba una cierta forma del paralelismo a nivel de thread (Thread-level parallelism) (TLP) sin incluir múltiples microprocesadores en paquetes físicos separados. Esta forma de TLP se conoce a menudo como multiprocesamiento a nivel de chip (Chip-level multiprocessing), o CMP.Multiprocesamiento es un Procesamiento simultáneo con dos o más procesadores en un computador, o dos o más computadores que están procesando juntos. Cuando se usa dos o más computadores, se unen con un canal de alta velocidad y comparten la carga de trabajo general entre ellos. En caso de que uno falle el otro se hace cargo. El multiprocesamiento también se efectúa en computadores de propósitos especiales, como procesadores de arreglo, los cuales proveen procesamiento simultáneo de conjunto de datos. Aunque los computadores se construyen con diversas características que se superponen, como ejecutar instrucciones mientras se ingresan y se sacan datos, el multiprocesamiento se refiere específicamente a la ejecución de instrucciones simultáneas.

jueves, 10 de mayo de 2007

Precios de Dominios


tipos de blog

Existen muchos tipos de blogs; una posible clasificación es la siguiente:
  • Blog Personal: diario de vida , con fotos o historias.
  • Blog Colaborativo: un blog que es escrito por varias personas. Lo compartido es el registro de usuarios, los tags o clasificaciones del contenido y la apariencia del sitio.
  • Fotolog: un fotolog es una especie de blog en que no se escribe mucho, sino a lo más un párrafo y lo más importante del contenido es una foto que ilustra un momento del tiempo o un acontecimiento.
  • AudioBlog o Podcast: un blog en el que se publica un programa de audio (similar a un programa de radio), normalmente de 20-60 minutos de duración y que permite a los usuarios descargarlo a un dispositivo como un reproductor portátil de MP3s.
  • Vídeo: En enero de este año tuvo lugar la primera conferencia de videobloggers, Sería algo similar a los flogs pero en vídeo de baja resolución. Su nombre común es vlog.