Skip to content
02/03/2014 / José Quintás Alonso

Complejidad: Diseño social. (5)

Marco de tabajo para la definición de Métricas de Complejidad.

Carlos Montenegro A., desarrolla en el artículo  Marco de tabajo para la definición de Métricas de Complejidad  su aportación al tema; además ofrece una interesante relación  de referencias. ¿Podremos aprovechar su impulso?.

Complejidad computacional.

El estudio de la Complejidad computacional se artícula fundamentalmente en torno a dos variables (tiempo y RAM) si bien pueden emplearse otras (núm. procesadores…).

Busca conocer que algoritmos son más complejos que otros y también si son calculables en un tiempo finito.

Es un vasto campo de estudio y experimentación y para aquellos que están interesados/as, les remito al “Clay Institute”; como ven, se plantea un problema y su solución tiene como premio un millón de dolares.

Clay Institute: P versus NP problem.

Suppose that you are organizing housing accommodations for a group of four hundred university students. Space is limited and only one hundred of the students will receive places in the dormitory. To complicate matters, the Dean has provided you with a list of pairs of incompatible students, and requested that no pair from this list appear in your final choice. This is an example of what computer scientists call an NP-problem, since it is easy to check if a given choice of one hundred students proposed by a coworker is satisfactory (i.e., no pair taken from your coworker’s list also appears on the list from the Dean’s office), however the task of generating such a list from scratch seems to be so hard as to be completely impractical. Indeed, the total number of ways of choosing one hundred students from the four hundred applicants is greater than the number of atoms in the known universe! Thus no future civilization could ever hope to build a supercomputer capable of solving the problem by brute force; that is, by checking every possible combination of 100 students. However, this apparent difficulty may only reflect the lack of ingenuity of your programmer. In fact, one of the outstanding problems in computer science is determining whether questions exist whose answer can be quickly checked, but which require an impossibly long time to solve by any direct procedure. Problems like the one listed above certainly seem to be of this kind, but so far no one has managed to prove that any of them really are so hard as they appear, i.e., that there really is no feasible way to generate an answer with the help of a computer. Stephen Cook and Leonid Levin formulated the P (i.e., easy to find) versus NP (i.e., easy to check) problem independently in 1971.

Un millón de dólares!. Otro asunto es la complejidad ciclomática, de la que hablaremos en otro post.

Complejidad empresarial.

Lo siguiente está obtenido del libro “Complexity crisis” de John L. Mariotti y en el se advierte que:

1. No se considera la complejidad del producto.

2. No se considera el tiempo de fabricación del producto.

3. CF  parece un número sin sentido, sin dimensión o con muchas; por eso sugieren que se considere solamente un índice y se utilice para compararse consigo mismo, en un intento para reducir la propia complejidad.

4. La formulita sale de la “nada”…quizás de los “6 sigma” u otros estudios y normas de calidad; no se especifica.

5. Avisan que buscar una relación que sirva para hablar de la complejidad de cualquier organización es una quimera.

Variables Descripción : PT Núm. Productos terminados que comercializa    ME Núm. Mercados empresa actúa    CO Núm. Sociedades que componen empresa    SE Núm. Sedes empresa    NE Núm. empleados    NP Núm. proveedores    NC Núm. clientes    VE Ventas cobradas del grupo    CF Índice de complejidad

CF = (PT*ME*CO*SE(NE+NP+NC))/VE

Complejidad organizacional.

Dados dos esquemas organizativos de distinta complejidad, puede ser que optemos por el más simple. En este caso la Comlejidad sería un parametro organizativo. Debemos considerar que los humanos somos más complejos que una ameba y posiblemente deseemos seguir siendolo.

Diversas consultas y recuerdos me llevan a confeccionar esta lista desordenada.

Núm. /Variable /Descripción /Unidad /Instrumento

1 /Cont.Infor.comp /Contenido información de componentes/ inf. diferente: + compl..

2/ Dif. Horizontal /A Núm. Divisiones empresa, ídem ministerios, ídem Dtos

3/ Dif.Vertical /A Núm. Estratos jerárquicos

4/ Dispersión espacial /Núm de sedes

5 /Grad.Interac. comp /Más interacción, dependencia entre compo: más complejidad

6/ Grad.Interdepend./ Más interdependencia componentes: más complejidad

7 /Grado inestabilidad /Grado de inestabilidad en el entorno

8 /Núm componentes

9 /Núm. Elecciones/ Núm. elecciones, núm. estados posible: más complejidad

10/ Tendencia Cambio /Más tendencia al cambio de los componentes: más complejidad

La Ciencia de la creación de lo artificial.

Gómez-Senent considera que la actividad intelectual del proyectista comprende e integra los siguientes procesos:

1. Relacionar

1.1. Buscar

1.2. Comprender

1.3. Comparar

1.4. Decidir

2. Ordenar

3. Considerar / analizar

4. Coordinar

5. Seleccionar técnicas adecuadas

6. Aplicación de las mismas

Por otra parte considera que todo proyecto puede quedar determinado, especificado por la concreción de seis dimensiones (“considerando dimensión a cada uno de los seis conjuntos de actividades que lleva a cabo el proyectista en el desarrollo del diseño”), a saber:

1. Procesos

2. Fases

3. Factores

4. Metaproyecto

5. Técnicas

6. Instrumentos

Las dos primeras dimensiones son consideradas como propias del diseño o intrínsecas y el resto como propias del entorno o extrínsecas. La teoría de las dimensiones viene acotada por nueve principios, proposiciones evidentes que no necesitan demostración y que el autor renuncia a denominar axiomas. Cada principio es una “regla o  conjunto homogéneo de reglas por las que se rige un proyecto”.

1. Principio Relacional

2. Principio de  Dualidad objeto-Proyecto

3. Principio de Interacción Proyecto-Objeto

4. Principio de Transitoriedad

5. Principio de Equilibrio en la decisión

6. Principio de Máxima independencia

7. Principio de Subdivisión o  de Unidades elementales

8. Principio de Óptimo circunstancial o Mejoramiento Continuo

9. Principio de Semejanza

En la tesis doctoral de Mª Carmen González Cruz, dirigida por Eliseo Gómez-Senet y Juan Jaime Cano Hurtado, se plantea la aplicación de la Teoría de las dimensiones del proyecto para el diseño de la distribución en planta . Como una parte del mismo y dentro de la 5 dimensión (Técnicas específicas), se contempla la “Selección y ponderación de factores” y la construcción de la matriz “Global Sistémica”.

Referido al problema que se desea resolver y a la primera de las técnicas, enumera las objetivos a lograr:

1. Minimizar costes

2. Facilitar los procesos de fabricación

3. Aumentar la producción

4. Facilitar la estructura organizativa

5. Mantener buenas condiciones de trabajo

Y los criterios que deben de cumplir respecto a:

1. Costes (inversión, operación, mantenimiento)

2. Tecnológicos (Flujos, volumen de producción, transporte interno, manutención…)

3. Organizativos (automaticidad, modularización, integración, estandarización…)

4. Seguridad y Salud (condiciones de seguridad, ídem de higiene laboral)

Ha de tenerse en cuenta que además de espacios, rutas, costes, robots, retrocesos,,,se consideran determinados aspectos de las personas. En definitiva el problema sobre el que trabaja es buscar el más adecuado soporte físico de una organización humana de tipo empresarial. Estudiando a ocho autores y relacionado con los objetivos y criterios anteriormente  citados, enumera un total de 61 factores a tener en cuenta en el diseño genérico de la distribución en planta. De estos se extraen 26, seleccionados en función de la importancia que les conceden los diferentes expertos y la propia autora.

Para ponderar los factores propone seguir el método “Analítico Jerárquico” de asignación de pesos, propuesto por Saaty , midiendo  ”’la ratio de inconsistencia”’ y aceptando que es adecuada si es inferior al 10% del valor máximo .

La construcción de la ”’matriz GS permite calcular la Entropía”’ de las diferentes configuraciones que pueden proponerse, facilitando un criterio objetivo de elección de la más adecuada.

Planteamiento general.

Como planteamiento genérico planteo calcular el índice correpondiente a las dos situciones siguientes (A y B) que, dicho sea de paso, han sido extraidas de la realidad.

La empresa A, que cuenta con 33 directivos, presta sus servicios a un cierto núm de personas; núm que designamos por N. Sus clientes están satisfechos. Una pluralidad de pequeñas empresas B (B1  B2  .) , prestan sus servicios también a N personas; este número se obtiene de sumar los clientes de cada empresa Bi , para todas las empresas agrupadas bajo B. Sus clientes están satisfechos.

Cómo en cualquier empresa, los directivos tienen la misión de analizar, debatir y tomar decisiones; los estamentos profesionales de cada empresa son los encargados de ejecutar las decisiones y convertirlas en realidad física; el núm de personas en los estamentos profesionales es muy similar ( A y  ∑Bi). Se hace especial hincapié en que los directivos están expresamente separados del estamento profesional (no estamos hablando de, por ejemplo, el pequeño comercio o personal autónomo). El número de directivos de Bi sobrepasa los seiscientos.

Preguntas.

1. Razones por las que asignaría más o menos eficiencia a cada uno de los modelos, en los siguientes casos:

a. Clientes cautivos

b. Clientes no cautivos.

2. Cómo estima que modificarán los clusters la eficacia de ambas organizaciones.

3. Aconsejaría alguna reforma, teniendo en cuenta la satisfacción de los clientes?

4. Dónde entiende que hay más complejidad organizativa?

Epílogo

Al margen de todo lo anterior se incluyen dos referencias al tema:

Visión general

Pioneros.

Anuncios
A %d blogueros les gusta esto: