domingo, 18 de octubre de 2015

Representación y Prueba de Teorías Organizacionales- Bagozzi y Phillips

Este artículo es producto de una investigación teórica y documental que partió de la construcción conceptual del objeto de estudio y su caracterización e incluyó la revisión y análisis de algunos enfoques conceptuales sobre la sociedad civil, la participación y el Estado. Se aborda el constructo holístico, representado por Bagozzi y Phillips, con el fin de establecer correspondencias entre los conceptos y estructurar una malla teórica que refleje las relaciones conceptuales de la sociedad civil. 

El constructo holístico de Bagozzi y Phillips plantea tres tipos de conceptos y cuatro relaciones. En cuanto a los conceptos se identifican los teóricos, los derivados y los empíricos; y las relaciones son: las hipótesis no observables, la definición teórica, la regla de correspondencia y la definición empírica. Los conceptos teóricos son abstractos y no observables, consisten en descripciones de fenómenos proporcionados por frases que reflejan el vocabulario conceptual de la teoría. Los conceptos derivados, al igual que los teóricos, son no observables, pero están atados directamente a los conceptos empíricos y se encuentran en un nivel de abstracción menor con respecto a los teóricos. Los conceptos empíricos se refieren a las propiedades o relaciones, cuya presencia o ausencia en una situación dada puede ser conocida intersubjetivamente, bajo circunstancias apropiadas, mediante la observación directa.

viernes, 9 de octubre de 2015

Tipos de Teorías

(*) José Padrón (2004). Aspectos claves en la evaluación de Teorías. 
Las teorías suelen formar parte de redes teóricas, sistemas en los que algunas de ellas cubren hasta los límites más amplios del universo de hechos, mientras que otras cubren sectores internos muy específicos y otras cubren sectores intermedios. Muchas veces, los procesos de construcción teórica recurren a la estrategia de explicar un universo determinado de hechos  subsumiéndolo bajo la etiqueta de otro universo aun más amplio, para el cual ya existe una Teoría.
Entonces no hacen más que derivar de esta Teoría preexistente una Teoría particular, con lo cual la primera se convierte en Teoría General y la segunda en Teoría Específica o Especial. Según este criterio, tendríamos otros tres tipos de Teoría:
Teoría General: explica un universo de hechos hasta sus límites más amplios.
Teoría Intermedia: explica un universo de hechos propiamente incluido en el de una Teoría General.
Teoría Específica: explica un universo de hechos propiamente incluido en el de una Teoría Intermedia.
Tipos de Teoría según el nivel de elaboración, de madurez o de aproximación
Este criterio aparece propuesto por Bunge (1985), basado en el hecho real de que las investigaciones no son desde el principio perfectas ni logran plenamente su objetivo de una sola vez. Más bien, las teorías nacen imperfectas y progresivamente van madurando en el tiempo a través de sucesivos reajustes, cada vez con mayor elaboración y aproximaciones crecientes. Bunge propuso el término de "Profundidad", para referirse a este criterio, al cual corresponden los siguientes tipos de Teoría:
Teorías Profundas: las de mayor elaboración.
Teorías Semi-Profundas: de un grado intermedio de crecimiento y reajuste
Teorías Poco profundas: las de primer acercamiento.
Esto quiere decir que no todas las investigaciones están obligadas a generar Teorías Profundas. Algunas pueden válidamente orientarse a reajustar Teorías previas de menor grado de profundidad y otras a construir teorías de primer acercamiento. Precisamente, todo esto es absolutamente necesario para poder, gracias a la Crítica y a la Evaluación, ir generando conocimiento científico de calidad.
Tipos de Teoría según el lenguaje de representación
Este criterio se fundamenta en el hecho de que toda Teoría es una representación de un mundo, no el mismo mundo en sí. Por tanto, las Teorías tienen carácter simbólico (representacional) y, por tanto, tienen también carácter lingüístico. En ese sentido, las Teorías son un Lenguaje que representa un Mundo. 
Pero, por otra parte, existe el lenguaje natural, que utilizamos cotidianamente para expresar nuestras representaciones acerca del mundo circundante, en general. Y este lenguaje natural tiende a ser espontáneo, no demasiado controlado, de donde resultan palabras con múltiples sentidos, sentidos con múltiples palabras, estrategias de enmascaramiento y persuasión, etc., todo lo cual conduce a un alto grado de ambigüedad e imprecisión. Una convicción clásica dentro del pensamiento empirista y racionalista es que, si queremos que nuestras Teorías sean adecuadas, debemos sustituir el lenguaje natural por lenguajes artificiales dotados de mínima ambigüedad y máxima capacidad representacional. Fue así como surgieron los lenguajes formales de la lógica y las matemáticas, típicamente utilizados en la construcción de Teorías. Esto nos conduce a considerar otros tres tipos de Teoría:
Teorías Formalizadas: vienen presentadas en un lenguaje artificial, generalmente lógico-matemático (nótese que también los lenguajes gráfico-diagramáticos, especialmente los enraizados en laTeoría de Grafos, constituyen lenguajes artificiales). Para casos de Teorías formalizadas, véanse algunos ejemplos en Padrón (2002). Dependiendo del sistema formal utilizado, pueden considerarse varios sub-tipos de Teorías: las axiomáticas, las conjuntistas (predicados conjuntistas), las legaliformes (en forma de ecuaciones) y las no convencionales (como las reglas de reescritura en lingüística, algunas teorías en química y biología, los recursos diagramáticos, etc.). Nótese que, por más formalizada que sea una Teoría, siempre contendrá algunas secciones explicativas o de ampliación que vienen expresadas en lenguaje natural. Lo que quiere decirse con el término "formalizada" es que el núcleo completo de la construcción teórica viene dado en un lenguaje artificial.
Teorías Semi-Formalizadas: ofrecen algunas estructuras de lenguaje formal (fórmulas lógicas, por ejemplo) dentro de una exposición global en lenguaje natural. En general, es el caso de aquellas Teorías que distinguen sectores relevantes o críticos, que conviene formalizar, y sectores contextuales amplios, de menos riesgo, que viene presentado en lenguaje natural. También es el caso de las TeoríasPoco Profundas, vistas antes.
Teorías No Formalizadas: están construidas totalmente en lenguaje natural, pero utilizando recursos que eliminen las ambigüedades, tal como las "definiciones de términos", las "formulaciones proposicionales" (oraciones encadenadas), etc. 
Muchos en el seno de los enfoques empirista y racionalista sostienen que la formalización es un requisito indispensable de las Teorías Profundas. Algunos, incluso, llegan a considerar como Teoría sólo aquellas que vienen presentadas en cálculo axiomático (véase Bergman, 1971). Muchos otros, en cambio, consideran que la formalización es tan solo un recurso de claridad, pero jamás un fin en sí mismo ni tampoco una condición necesaria para las teorías profundas). El objetivo, más bien, está en prever algún tipo de estrategias que garantice la precisión, la credibilidad y la posibilidad de crítica.
Tipos de Teoría según la orientación explicativa
Este criterio se fundamenta en el hecho de que las explicaciones se orientan de acuerdo a diferentes estrategias. Podemos, por ejemplo, explicar un conjunto de hechos indicando qué hacen o para qué sirven dentro de su propio sistema, pero también podemos explicarlo indicando qué efectos condiciona o a partir de qué efectos viene condicionado, etc. Aunque son muchos y distintos los tipos de Teoría que pueden obtenerse bajo este criterio, consideraremos provisionalmente los siguientes:
Teorías Causales: son aquellas cuya explicación se orienta a establecer una relación de causa-efecto entre dos o más variables.
Teorías Funcionales o Teleológicas: la explicación se basa en la función que cumple un elemento dentro de un sistema o en su finalidad procesal-estructural.
Teorías Probabilísticas o Estadísticas: la explicación se basa en la frecuencia de ocurrencia de un hecho. Ejemplo: las investigaciones basadas operativamente en análisis de varianza y regresión múltiple.
Teorías Intencionales: típicas de las explicaciones acerca de hechos sociales, en que las acciones son interpretadas de acuerdo a la intención del actor.
Teorías Disposicionales: típicas de las explicaciones acerca de hechos orgánicos (incluyendo los humanos), en que los sucesos o comportamientos son interpretados de acuerdo a ciertas propensiones o tendencias.
Teorías Históricas: son aquellas cuya estructura explicativa se orienta a establecer relaciones entre unos y otros sucesos  ubicados en una línea de tiempo o a explicar un hecho presente o futuro sobre la base de una sucesión de hechos históricos precedentes.
Teorías Generativas: son aquellas orientadas a explicar unos hechos atendiendo al proceso básico y profundo en virtud del cual dichos hechos se generan.
Tipos de Teoría según su función dentro de la investigación
En el proceso de investigación las teorías suelen tener funciones diferentes. Por un lado, de acuerdo al momento o instancia en que se plantean, tenemos dos tipos:
Teorías de Entrada o a-teorías: las teorías pueden usarse como plataforma de entrada para la formulación misma del problema o pregunta de investigación. Se trata en este caso de teorías preexistentes que son seleccionadas como marco de análisis y de consideración con respecto a los objetivos de trabajo y a las perspectivas de desarrollo de las soluciones o respuestas. En las investigaciones descriptivas, por ejemplo, estas teorías de entrada pueden jugar un papel importante en lo que se refiere a la búsqueda de categorías de análisis y de criterios observacionales en general; en las investigaciones explicativas (o teóricas) las teorías de entrada constituyen una visión preliminar del problema bajo estudio (Einstein, por ejemplo, consideró la teoría electromagnética y aun la misma teoría del éter como teorías de entrada para la construcción de su propia teoría de la relatividad); en las investigaciones contrastivas o evaluativas las teorías de entrada son precisamente aquéllas que se someten a evaluación y crítica; y en las investigaciones aplicativas o tecnológicas las teorías de entrada constituyen el soporte esencial a partir del cual se proponen prototipos y aplicaciones de uso y acción.
Teorías de Salida o w-teorías: son aquellas teorías que cumplen el papel de hallazgos o explicaciones adecuadas a un determinado problema. Evidentemente, este tipo de teorías sólo existen en las investigaciones explicativas (aquéllas orientadas a producir teorías). Las Teorías de Salida constituyen el producto terminal de este tipo de investigaciones.
Por otro lado, de acuerdo a su utilidad con respecto a las exigencias empírico-teóricas o metodológicas, las teorías pueden tener una función más ligada a las necesidades observacionales y explicativas o más ligadas a las necesidades operativo-procedimentales. Según esto, tendríamos dos tipos de teorías:
Teorías de Servicio: son aquéllas que no guardan una relación directa con los hechos bajo estudio sino más bien con las condiciones metodológicas de trabajo. Por ejemplo, la Teoría de Probabilidades (en el caso de los diseños estadísticos) es una teoría de servicio muy útil para el tratamiento metodológico de una infinidad de problemas, independientemente del contenido específico de dichos problemas. Lo mismo ocurre con la Teoría de Conjuntos, de Relaciones y Funciones, las cuales permiten el manejo organizado de propiedades y conceptos, independientemente del contenido empírico y teórico de éstos.

Teorías Sustantivas: son aquéllas que guardan una relación directa con el contenido empírico y teórico de los datos de la investigación. Así, por ejemplo, la Teoría de la Acción ha sido en muchos estudios una importante teoría sustantiva para explicar los hechos discursivos, comunicacionales y lingüísticos.

Evaluación de Teorías y Enfoque Epistemológico


J. Padrón (2004). Aspectos claves en la evaluación de Teorías

Tanto la construcción como la evaluación de Teorías dependen fundamentalmente del Enfoque Epistemológico previamente adoptado, ya que es éste el que contiene los parámetros para concebir la naturaleza, la función y la estructura de las Teorías. De ese modo, el concepto de Teoría cambia según cada Enfoque Epistemológico. 

En el enfoque ‘empirista-inductivo’, el que está convencido de que hay una realidad externa independiente del sujeto que la conoce y de que el conocimiento de dicha realidad se genera a partir de los datos de la percepción sensorial y de la observación, la teoría es un hallazgo universal, aritmético y frecuencial, del patrón de ocurrencia, del modo en que se suceden los hechos, hallazgo que debe luego expresarse en términos de un sistema de leyes.

En el enfoque ‘racionalista-deductivo’, el que está convencido de que la realidad externa es independiente del sujeto que la conoce y de que el conocimiento se genera a partir de las capacidades del cerebro humano y de sus facultades de razonamiento, la Teoría es un diseño, una formulación mental, un invento, que imita aquellas estructuras universales y abstractas que son las responsables de los procesos observacionales aparentemente diferentes entre sí y que subyacen a las distintas casuísticas y a las observaciones y frecuencias aparentemente diferentes del modo en que ocurren los hechos.

Finalmente, en el enfoque ‘interpretativo-simbólico’, aquel que está convencido de que la realidad depende del modo en que la vemos y la pensamos y de que el conocimiento es producto de nuestras propias intuiciones internas, de nuestras vivencias y de nuestra propia conciencia, la Teoría viene siendo una especie de definición o de traducción del modo en que los grupos sociales y los individuos perciben los hechos desde su propia internalidad o desde su propia conciencia (para más detalles sobre las concepciones de ‘Teoría’ según el enfoque epistemológico, véase Padrón, 1996; para la noción de ‘Enfoque Epistemológico’ y sus tipos, véase Rivero, 2000 y Camacho, 2001).

En cuanto al uso de las teorías según el tipo de investigación (dentro de la trayectoria diacrónica de los Programas de Investigación), hay que decir que en las investigaciones descriptivas las teorías suelen tener el carácter de ‘teoría de entrada’ (véase más adelante), en el sentido de que esa clase de estudios, aunque típicamente no construye teorías, sí suele utilizarlas para definir las categorías, criterios y parámetros bajo los cuales elabora sus descripciones del mundo. 

En las investigaciones explicativas suele haber ‘teorías de entrada’ y, obligatoriamente, ‘teorías de salida’, las cuales constituyen el producto terminal en esa clase de estudios. En las investigaciones contrastivas o evaluativas (aquéllas que se orientan a determinar la adecuación de una o más teorías) las teorías constituyen, justamente, el objeto de estudio. Son aquello en cuyo análisis se centra el esfuerzo del investigador. Precisamente, este trabajo pretende servir, ante todo, a quienes desean desarrollar estudios contrastivos o evaluativos.

Finalmente, en las investigaciones aplicativas (aquéllas que se orientan a producir tecnologías, tanto materiales como humanas o esquemas de intervención), las teorías constituyen típicamente el sustrato inicial (con carácter de “teoría de entrada”) a partir del cual estos estudios derivan sus propuestas de acción, uso e intervención. Es evidente que, de acuerdo al tipo de investigación que se plantee, las teorías van a tener una función diferente. 

Resumiendo, puede decirse que las teorías constituyen puntos de partida (teorías de entrada) para el caso de las investigaciones descriptivas y aplicativas, que constituyen tanto puntos de partida como producto terminal para las investigaciones explicativas y que funcionan como objeto de estudio para el caso de las investigaciones contrastivas (evaluativas). 

Teoría de los Constructos Personales

El concepto de constructo personal, introducido por George Kelly(1955), representa la idea de que las personas construyen los hechos al predecirlos sobre la base de la experiencia y el aprendizaje. En este sentido, una teoría ha de ser sobre todo un marco de referencia para anticipar acontecimientos: su función primordial es la de contribuir a la predicción del futuro y a la exploración de sus posibilidades. Una buena teoría, por lo tanto, es aquella que resulta fértil en cuanto a la producción de nuevas ideas, investigaciones e hipótesis. El criterio de Kelly es idéntico al de Lakatos; un programa progresivo se distingue por su vitalidad en la formulación de predicciones y en la validación de éstas.

Un segundo criterio de bondad de una teoría, según Kelly, es su capacidad para generar hipótesis contrastables, que se traduzcan en "predicciones tan precisas que sean inmediatamente sujeto de verificación incontrovertible" (Kelly, 1955/1991, pág. 17). Por tanto, las hipótesis han de ser lo bastante precisas como para ser refutadas cuando no se cumple la predicción, si bien "nunca pueden ser validadas de forma definitiva". Kelly admite la utilidad metodológica del criterio de falsación, pero también se anticipa a Lakatos al contemplar la posibilidad de un cinturón protector de hipótesis que pueden modificarse para no poner en peligro el núcleo de la teoría.

En este sentido, autores posteriores a Kelly, destacan tres formas diferentes de invalidación. La primera, o invalidación cierto/falso es la única considerada por Popper, es decir, la que se produce cuando no se confirma una anticipación y como consecuencia se valida la hipótesis alternativa. La segunda, o invalidación de conexión es la que se produce cuando se revisa la hipótesis en lugar de la teoría, dando lugar a hipótesis auxiliares. La tercera modalidad de invalidación es la de no aplicabilidad, el cual promueve el desarrollo de algún constructo de orden superior al invalidado, bajo uno de cuyos polos queda subsumido éste como caso particular de la teoría, con lo que la aplicabilidad del subsistema subordinado al constructo invalidado se mantiene relativamente intacta.

Sin embargo, también anticipándose a Lakatos y, en cierto sentido, a Kuhn, Kelly admite que las hipótesis auxiliares no pueden multiplicarse indefinidamente y que, "una teoría debe considerarse modificable y, en último extremo, deshechable" (pág. 22). Kelly no propone criterios respecto a cuándo debe "deshecharse" una teoría a la luz de la evidencia en su contra, pues lo considera "una cuestión de gusto" (pág. 22). Sin embargo sí aconseja, como se vió forzado a hacer Popper ante las críticas de Kuhn, que no se abandone ante el primer fracaso, pues eso significaría que el científico se convirtiese en víctima de sus circunstancias.

Según él "en general uno se aferra más a las premisas de mayor importancia y abandona con presteza las que sólo revisten una relevancia temporal" (pág. 22). Una vez más, Kelly parece anticipar la diferencia establecida por Lakatos entre "núcleo duro" y "cinturón protector". Kelly no elabora mucho más sus propuestas, pues su objetivo es la formulación de la Teoría de los Constructos Personales, no sentar las bases de la filosofía de la ciencia.

La consideración de las teorías personales como sistema de constructos jerárquicamente organizado alrededor de un núcleo de premisas metafísicas infalsables o constructos nucleares, es decir, desde una epistemología post-positivista, conduce a una visión del desarrollo como sinónimo del proceso de reconstrucción serial del sistema, fruto de sucesivos ciclos de experiencia. En consecuencia, el desarrollo de los aspectos ontológicos y epistemológicos de dichas teorías personales va inextricablemente unido al desarrollo afectivo, pues el constructivismo concibe las emociones como ciclos de transición del sistema de constructos personales. 

martes, 6 de octubre de 2015

Ciencia normal y descubrimientos científicos

No todas las teorías pertenecen a paradigmas, también existen en periodos de crisis, o anteriores a los mismos paradigmas. En éstos últimos las teorías existentes son especulativas y sus descubrimientos no son las esperados, en general. Cuando coincide el resultado del experimento con lo que supone la teoría de tanteo, esta teoría dará paso a un paradigma.

Las características comunes a los descubrimientos serían la percepción previa de la anomalía, la aparición gradual y simultánea del reconocimiento, tanto conceptual como de observación, y el cambio consiguiente de las categorías y procedimientos del paradigma. Estas mismas características están incluidas en la naturaleza del proceso de percepción.

En la ciencia, la novedad surge dificultosamente de lo que proporciona lo esperado. Esta percepción de la anomalía abre un periodo en que se ajustan las categorías conceptuales hasta que lo anómalo se convierte en previsto. En este momento se habrá completado el descubrimiento. La ciencia normal, que no va dirigida a la novedad (sino que más bien tiende a suprimirla), puede ser efectiva para que surja esa novedad. 

La ciencia se hace así cada vez más rígida, en los campos a los que se dirige el paradigma hay una información detallada y una gran concordancia entre naturaleza y la teoría. Cuanto más preciso sea un paradigma, más sensibilidad habrá hacia la anomalía y a la pertinente ocasión de cambio de paradigma. 

Tras la asimilación del descubrimiento se pueden explicar los fenómenos y precisar menos y precisar los ya conocidos. Los descubrimientos no son los únicos elementos de cambio en los paradigmas. Si las anomalías producen nuevos tipos de fenómenos, una percepción más profunda es un requisito previo para los cambios de teoría. 


lunes, 5 de octubre de 2015

Matriz Epistémica y Conocimiento

De acuerdo a Martínez (1999), se entiende por matriz epistémica la base o plataforma de toda cosmovisión, ideología, teoría, paradigma científico y método. Está compuesta por una serie de axiomas, postulados y supuestos que establecen las condiciones de pensar, que cabe aclarar, no son conceptos o ideas, sino modos de percepción. Estos modos de percepción y formas de construir conocimiento definen el tipo de conocimiento que cada época e individuo construye, pues posibilita y simultáneamente limita sus interpretaciones, juicios, cuestionamientos y conclusiones.

En otras palabras, “lo que se recibe, se recibe de acuerdo a la forma del recipiente”, entendiendo que el recipiente es la matriz epistémica subyacente. Los supuestos, axiomas y postulados que se validan, bien sea por la experiencia personal o por el condicionamiento psicológico, permiten que cada individuo vaya construyendo su conocimiento en relación a la interpretación de sus experiencias. Este conocimiento, en retroalimentación, permite replantear o reforzar los supuestos y postulados que lo fundamentan. 

Por tanto las diferentes formas de conocer son un sistema complejo conformado esencialmente por modos de percepción, experiencias e interpretaciones que se retroalimentan entre sí, y sobre los cuales no es posible establecer un punto de observación objetivo, pues siempre el observador está inmerso en su propia matriz epistémica. Por tal motivo toda descripción es solamente una posible interpretación de la realidad (Lagos-Garay, 2004), una realidad que siempre esta “expuesta a nuestro modo de cuestionamiento”

.Es por esto que las maneras en que se construye, se valora y se valida el conocimiento, es decir, las posturas epistemológicas, no son universales. No obstante, la ciencia moderna pretendió instituir a la racionalidad analítica y al rigor cuantitativo como el fundamento de la legitimidad del conocimiento, apoyado por la razón instrumental y económica predominante. Desde mediados del siglo XX este supuesto ha sido motivo de un profundo debate, cuyos aportes han obtenido una atención y aceptación marginal y por ende han sido poco difundidos en los ambientes académicos y científicos.

Esto se debe a que indudablemente la ciencia positivista ha realizado aportes muy significativos a la humanidad (p. ej. en transporte, medicina, comunicación, etc.). Por estos éxitos, muchos de sus supuestos se siguen aplicando con cierta ingenuidad, mientras que conocimientos y teorías generados desde visiones alternativas generan mucho escepticismo y por desconocimiento son precipitadamente devaluados. 

Además las posiciones éticas de la ciencia positivista siguen siendo ambivalentes al permitir también prácticas científicas que atentan contra la integridad humana y ambiental. Son estas las razones para considerar indispensable evidenciar y demostrar justamente las bases epistemológicas que posibilitan y justifican estas problemáticas y a la vez aportar algunos elementos para fundamentar un pensamiento ambiental orgánico.

Construcción de Teorías

El Conocimiento es un proceso recurrente que integra de manera compleja hechos e ideas y para cuya comprensión es preciso abordar aspectos relacionados, entre otros, con disciplinas como la ciencia y la filosofía, la cultura y la tecnología, el arte y la economía El confrontar experiencias propias con experiencias ajenas, permite construir la teoría, entendida como elaboraciones de pensamiento aplicables a contextos diversos.

En esos términos, la aplicación es lo que permite reconvertir la teoría en práctica. El aprendizaje, retroalimentación de y con los mecanismos de formación social que existen en el entorno y que se estructuran en la práctica, constituye la fuente del nuevo saber. El conocimiento, crece en la medida en que circula, aumenta cuando se expone, sin agotarse por la circulación ni desgastarse por su exposición. 

Cuando se favorece el encuentro de pareceres y opiniones diversas se refresca el ambiente laboral al tiempo que garantiza resultados perceptibles en el corto plazo. La gestión del conocimiento, más que un aspecto estratégico o técnico, se articula íntegramente con los factores esenciales de la cultura de la organización.


sábado, 3 de octubre de 2015

Naturaleza de la Ciencia

Kuhn define la Ciencia Normal como aquella investigación basada en realizaciones científicas pasadas; realizaciones reconocidas por alguna comunidad científica particular, durante cierto tiempo, como fundamento para su práctica posterior. La ciencia normal se ve afectada por una serie de problemas, estos se pueden dividir en tres clases: la determinación del hecho significativo, el acoplamiento de los hechos con la teoría y la articulación de la teoría.

La investigación científica normal va dirigida a la articulación de aquellos fenómenos y teorías que ya proporciona el paradigma; el trabajo realizado bajo el paradigma no puede llevarse a cabo de otra manera, cambiar esto sería dejar de practicar la ciencia que define el paradigma, lo que supone una de las bases sobre las que giran las revoluciones científicas.

Los paradigmas no solucionan problemas, tan solo dan las bases para resolverlos de forma fiable, por ampliación de los paradigmas. La ciencia normal se ocupa de encajar la naturaleza en los esquemas de los paradigmas; lo que no encaja, ni siquiera se percibe, lo que implica que las zonas investigadas por la ciencia normal son mínimas.

miércoles, 30 de septiembre de 2015

La emergencia de los descubrimientos científicos en la Gerencia

Un sistema complejo se define como aquel compuesto por varias parte interconectadas cuyos vínculos entre ellas contienen información adicional y oculta al observador. Como resultado de estas interacciones entre las partes surgen propiedades que no pueden explicarse  a partir de las propiedades de los elementos aislados, Estas propiedades que emergen se llaman exactamente así: propiedades emergentes.

En este sentido las organizaciones de individuos son sistemas típicamente complejos porque están en la naturaleza de las personas interrelacionarse. Y dado que cada cual es un ser único, con sus características propias, que conforman su identidad, carácter y personalidad, estas relaciones hacen de las organizaciones sistemas altamente complejos. La propia característica de asociación o relación laboral es un emergente del sistema empresa.

Por otra parte las organizaciones por ser sistemas abiertos intercambian materia y  energía con su medo ambiente. Esto las lleva a estar en una situación de poca estabilidad constantemente fuera de equilibrio. En este sentido, la complejidad comprende este comportamiento impredecible, la interdependencia de diversos sistemas simples para la toma de decisiones, la interacción de variables de diversa índole.

Hacia el exterior de la organización, la globalización económica, el funcionamiento dinámico de las redes informáticas, la necesidad de innovar para ser competitivos y romper fronteras creando alianzas estratégicas son solo algunas de las fuertes presiones que se ejercen sobre las organizaciones. Lo complejo lleva, supone o expresa emergencias. Como lo que es del orden del acontecimiento nuevo y no previsible, la emergencia es una noción crucial para comprender la complejidad. El surgimiento de la vida fue una emergencia en relación al dominio de lo no-vivo; un descubrimiento científico es una emergencia en relación al conjunto de conocimientos ya consolidados; La emergencia habla acerca de una combinación original de elementos o padrones ya existentes. En las palabras de Hubert Reeves, “esas combinaciones son portadoras de propiedades nuevas, definidas emergentes, que no preexistían absolutamente en los elementos aislados.

En la complejidad organizacional de la nueva gerencia se hace énfasis en la concepción de las corrientes del pensamiento complejo concebida desde el punto de vista del recurso humano como el capital intelectual, estrategia de éxito, que se implementa, para el proceso de competencias, lo que se denomina ciclo de desarrollo. Los expertos en desarrollo de capital intelectual han demostrado que las competencias actitudinales son parte innata de la persona y, por tanto, son más difíciles y complejas de aprender y de adquirir, aunque en la mayoría de los casos se pueden desarrollar.

La complejidad está llegando a un grado tal que quienes toman decisiones deben agudizar su entendimiento para escoger con cuales inconvenientes pueden convivir, durante cuanto tiempo y con que grado de intensidad.  El arsenal tecnológico de hoy día permite resolver problemas de producción, comunicaciones, transporte, etc., pero al mismo tiempo tiende a crear contaminación ambiental, exige una gran inversión económica en la formación de recursos humanos especializados y hasta crea interrogantes acerca del dominio que sobre el ser humano puede generar esa tecnología creada por él mismo. El bienestar y el crecimiento económico de un país puede acarrearle a éste situaciones críticas producto de "los problemas del progreso".

Todas estas realidades significan retos de alta complejidad en las organizaciones modernas, por ser en ellas donde suceden casi todos los fenómenos de la vida humana. La densificación de la estructura de las relaciones interorganizacionales genera tensiones y complejidades que constantemente obliga a replantear y repensar la labor y las exigencias del líder/gerente y al escrutinio permanente de su entorno. Estas realidades a su vez van creando un estado tal de interdependencias, que hace cada vez menos capaces a las instituciones de resolver sus problemas por sí mismas, pues requieren del concurso creciente de otras organizaciones. La espesa red de interrelaciones se va haciendo más extensa y compleja, convirtiéndose en un desafío para el gerente endocéntrico, que ve la complejidad casi únicamente dentro de su organización y no fuera de ella. Por el contrario, el gerente exocéntrico reconoce la complejidad interna pero valora la externa en sus justas dimensiones y le asigna una importancia creciente en la toma de decisiones.

El debate científico entre las perspectivas moderna y postmoderna le brindan a la actividad gerencial un fértil campo donde "abrevar" en busca de reflexiones significativas que aporten elementos útiles para abordar la gerencia interinstitucional en contextos diversificados y complejos. El modelo racionalista por sí sólo no brinda suficientes elementos que permitan comprender cabalmente el entrejuego de relaciones de poder, influencia y redes de comunicación propias de las estructuras múltiples de organizaciones públicas y privadas. Por ello es necesario que el conocimiento y la tecnología no solamente rebasen fronteras institucionales, sino también sobrepasen los linderos del conocimiento de las distintas disciplinas y dentro de éstas, exploren las bondades de un conocimiento "transparadigmático"

Los nuevos descubrimientos científico-técnicos tienen una indiscutible incidencia, no únicamente sobre la forma de entender la gerencia tanto pública como privada, sino también sobre la manera de como concebir y adaptar la gerencia a las nuevas realidades socioeconómicas. Se están dando casos en que por obra de nuevas investigaciones científicas se abren campos productivos con inusitados modelos de operación que no sólo se diferencian de los anteriores, sino que se fundamentan en un concepto totalmente opuesto a la práctica usual.


La gerencia debe ahora tornarse innovadora, con énfasis en el capital humano para producción y adaptación, con uso intensivo de tecnología software, que está abriendo la nueva frontera del desarrollo científico-tecnológico de la producción. Las nuevas inversiones se orientan básicamente hacia materiales más livianos y resistentes a la corrosión y al desgaste, como lo son los compuestos metálicos, la cerámica industrial, la fibra de vidrio y la aleación de resinas.  La nueva carrera de la producción está librando batallas con productos más eficientes y menos intensivos en materiales ("desmaterialización de las manufacturas"), en un proceso irreversible de adelanto científico-técnico.

domingo, 27 de septiembre de 2015

La Gestión del Conocimiento y la Universidad del Futuro (*)

* Larrea, M

Davenport (1998), enfoca la gerencia del conocimiento desde un punto de vista pragmático al describir diez principios generales para la gerenciación del conocimiento; ellos son:

1. Gerenciar conocimiento es costoso
2. Requiere soluciones híbridas de gente y tecnología
3. Es altamente política
4. Requiere gerentes del conocmiento
5. Brinda más beneficios a partir de “mapas” que a partir de modelos, más a partir
de mercados que a partir de jerarquías.
6. Compartir y utilizar conocimiento con frecuencia son acciones no naturales
7. Significa mejorar los procesos del negocio que se basan en conocimiento
8. El acceso al conocimiento es sólo el principio
9. La gerencia del conocimiento nunca termina
10. Requiere un contrato de conocimiento

Davenport (1998), plantean que la mayoría de los administradores del conocimiento dan por un hecho que en las organizaciones, el conocimiento está ampliamente compartido y que se puede distinguir el conocimiento de la información. El autor antes señalado, recomienda una guía para diferenciar la administración del conocimiento de la administración de la información. Esta guía esboza los siguientes puntos:

1. La administración del conocimiento hace énfasis en el valor agregado para el usuario. La administración de la información hace énfasis en la entrega y accesibilidad de la información.
2. La administración del conocimiento, agrega valor al conocimiento mediante; la filtración, síntesis, interpretación y limpieza del mismo. La administración de la información, procede a la entrega del contenido disponible con muy pequeño valor agregado.
3. La administración del conocimiento, usualmente requiere sobre la marcha contribuciones y retroalimentación de los usuarios. La administración de la información, hace énfasis en la transferencia unidireccional de la información.
4. En la administración del conocimiento, se balancea el enfoque tecnológico y cultural y su creación de impactos. La administración de la información, está muy enfocada a la tecnología.
5. En la administración del conocimiento, la variación en insumos imposibilita la captura automática del proceso de aprendizaje. En la administración de la información, se asume que la información puede ser capturada automáticamente.

Harris (1999) plantea, que el tipo de entorno de tecnologías de la información y la comunicación (TIC) de una organización, soporta la transferencia de información, pero no soporta conscientemente la transferencia de conocimiento. Otra opinión la da World Bank (1999); donde dice que es expresamente fácil y rápido transferir información de un lugar a otro, pero es muchas veces muy difícil y lento transferir conocimiento de una persona a otra.

O’ Dell y Grayson (1998); proponen una estructura comparativa entre una cultura que favorece la transferencia del conocimiento y otra que no; tal como se muestra a continuación:

1. Una cultura pro – transferencia del conocimiento, propicia el aprendizaje a través de la enseñanza y la transferencia de esta. Mientras que en una cultura no pro – transferencia del conocimiento, no hay incentivos o sanciones para promover la transferencia de información.

2. Una cultura pro – transferencia de conocimiento, propicia el entendimiento común a través de compartir historias y experiencias. En la cultura no pro – transferencia del conocimiento, al equipo de trabajo, se les otorga muy poco tiempo para la identificación de las lecciones aprendidas de los proyectos y/o programas educativos.
3. La cultura pro – transferencia del conocimiento, propicia el continuo intercambio y creación de nuevo conocimiento, conforme la experimentación ocurre, la gente comparte y aprende. En la cultura no pro – transferencia del conocimiento, las suposiciones acerca de los proyectos o actividades no son cuestionadas, confirmadas o recusadas.
4. En la cultura pro – transferencia del conocimiento, hay afinidad de áreas de interés y experiencia. En la cultura no pro – transferencia del conocimiento, los individuos son contratados y promovidos en base a su experiencia técnica.
5. La cultura pro – transferencia del conocimiento, propicia las relaciones personales. Mientras que la cultura no pro – transferencia del conocimiento, plantea que las diferentes misiones y visiones de las divisiones, departamentos, niveles del pensum de estudio; producen diferentes culturas que inhiben la transferencia de conocimiento y las lecciones aprendidas.

O’ Dell y Grayson (1998) señalan además, que la administración del conocimiento no depende de la tecnología para hacer el proceso más eficiente. Pero si depende del reconocimiento, que el conocimiento reside en las mentes de las personas, usando tecnología para facilitar su transferencia, no se reemplaza su origen eminentemente humano. Nos deja claro con esto que el Knowledge Management es más que utilización de tecnología, y que la función de ésta es soportar su transferencia.

Knapp (1998); señala que cuando una empresa se involucra en un proyecto que se circunscribe como administración del conocimiento; dentro de los requerimientos de tecnología que debe considerar como obligatorios, es simplificar las herramientas de computo que permitan que la gente se conecte con los sistemas de la organización y que soporten la colaboración incluyendo motores de navegación - búsqueda y tecnologías de almacenamiento de datos. Respecto de las tecnologías de información relacionadas con la administración del conocimiento, señala este autor, que son cuatro las características que una organización transformada por una gestión exitosa de Knowledge Management debe cumplir; ellas son: (1) Ubicuidad, (2) Velocidad, (3) Comunidades Virtuales, (4)Negocios sin Fronteras.

El World Bank (1999), señala que la mayoría de las tecnologías de la información y la comunicación (TIC), ahora disponibles tienden a ayudar más a la diseminación del know- how, pero ofrecen poca asistencia para el conocimiento. Las herramientas que apoyan la creación de conocimiento a menudo están poco desarrolladas, aunque los espacios de trabajo colaborativo prometen muchas oportunidades a través de la facilitación de la participación más allá de los límites de tiempo y espacio.

Un artículo aparecido en The Journal of Business Strategy (anónimo 1998), plantea las características de un sistema ideal de transferencia de conocimiento; ellas son:

1. El número de transmisiones de conocimiento debería ser reducido a uno, para lograr la menor distorsión de conocimiento.
2. Cada uno debería tener acceso a la base de conocimiento de la organización.
3. A cada individuo se le debería dejar ingresar conocimientos al sistema.
4. El sistema debería funcionar a través del tiempo y el espacio, con disponibilidad de la base de conocimiento durante las veinticuatro (24) horas del día.
5. El sistema debería de ser fácil de usar para aquellos que no son expertos en computadoras.
6. El sistema debería comunicar en cualquier lenguaje, el que mejor sea entendido por el usuario.

Hay una fuerte y sinergética relación entre las tecnologías de la información y de la comunicación (TIC) y la administración del conocimiento, esta relación hace que cada vez haya más sofisticación y avance en ambos frentes. En la medida en que las tecnologías de la información y de la comunicación (TIC) se han convertido en las herramientas de escritorio y el vínculo de unos con otros, se ha tenido más acceso a información y al conocimiento de otras personas.

O’ Dell y Grayson, F. (1998); plantea que el papel de las tecnologías de la información y de la comunicación (TIC) en la transferencia del conocimiento, hacen posible la conexión de información, pero no hacen que suceda la transferencia de conocimiento; además añade que el hecho de comprar sistemas e implementarlos en la mejor arquitectura informacional no es por si misma, una garantía de transferencia del conocimiento. Por lo que cabe entonces hacer la siguiente reflexión: “algunas veces, demasiada tecnología o el mejor tipo de tecnología, puede mermar los esfuerzos de la administración del conocimiento”.

La gestión del conocimiento no es más que gestionar los flujos de información y llevar la información correcta a las personas que las necesitan… Esta ayuda a las empresas a reaccionar con rapidez ante mercados cada vez más cambiantes. Aún cuando la definición que se hace es bastante limitada, expresa una tendencia creciente en el desarrollo de software de soluciones.

La gestión del conocimiento; se ha convertido en una tendencia reorientadora de muchas prácticas empresariales y organizativas a nivel mundial. Por una parte, se puede decir que gracias a su aparición y amplia difusión los temas de aprendizaje y conocimiento, han cobrado nueva fuerza y perspectiva dentro del sector laboral. Pero por la otra, sin pretenderlo intencionalmente, han reducido y minimizado la concepción de aprendizaje y conocimiento a una simple disposición lógica de contenidos gestionados digitalmente, quedando sin resolver elementos básicos de los nuevos paradigmas de la educación.

En plazos de tiempo muy cortos se está pasando de una lógica de producción vertical, es decir, de línea de ensamblaje, al reconocimiento del que el capital intelectual, parte del llamado know how - el concepto va más allá del “saber hacer”, ya que incluye la experiencia y un conjunto de conocimientos técnicos o prácticos, de los que se obtiene un conocimiento. La sociedad de la información y del conocimiento, basa su experiencia en el desarrollo de herramientas de gestión provenientes de las tecnologías de la información y la comunicación (TIC), conjuntamente con la transferencia del conocimiento. Sin  embargo, el advenimiento de éste nuevo modelo significa ante todo una ruptura cultural de la que se derivan procedimientos y actividades dirigidas al cuidado del conocimiento como un capital y, un valor diferenciador de cada organización.

La gestión del conocimiento posee una complejidad que reside en (1) los propios límites de los métodos y procedimientos tradicionales para gestionar una organización, (2) la propia complejidad del proceso de aprendizaje y sus nuevos paradigmas. A los cuales hay que sumar el vertiginoso avance que progresiva e irreversiblemente han impuesto las tecnologías de la información y la comunicación (TIC), con los procesos globales y la comunicación en “Red”.

La sociedad de información es también una sociedad de aprendizaje, en la que desvanecen los límites espaciales del saber, los tiempos y las rutas organizacionales de la transmisión del conocimiento, transformándose en una comunicación abierta de experiencias que surgen y crecen en función del interés y de los descubrimientos que la sociedad logra mediante las tecnologías de la información y la comunicación (TIC); donde éstas sin duda representan una gran contribución al proceso de enseñanza en la educación superior. Sin embargo para lograr el proceso enseñanza – aprendizaje, deben contemplarse las tecnologías de la información y la comunicación (TIC) conjuntamente con la transferencia del conocimiento; sólo así se alcanzaría la educación de calidad que la universidad del futuro merece.

Gestión Estratégica del Conocimiento (*)

* Martínez, Peñalver, Salamanca

Existe un consenso generalizado en considerar que una de las características más destacable de la realidad económico-social que nos ha tocado vivir en los últimos años del siglo XX y primeros del presente siglo es la actuación de los distintos agentes en un contexto de cambio rápido y continuado (en tecnologías, sistemas, procesos, productos, tendencias) propiciado por las condiciones de globalización y competencia presentes que desembocan en una situación en la que casi todo es "copiable y/o comprable".

En un entorno altamente complejo y de difícil predicción, que en el futuro aún estará más marcado por el cambio, por sus causas y sus efectos, las organizaciones deben actuar más allá de los sistemas tradicionales de gestión, que siguen siendo válidos pero insuficientes y por tanto ineficientes, y deben buscar factores sostenibles en el tiempo que no sean fáciles de comprar o copiar por sus competidores, que les permitan recuperar la diferencia y les aporten ventajas competitivas.

Entre esos factores emergen con fuerza en los últimos tiempos "los intangibles", y en particular constituye un objetivo estratégico para las organizaciones la creación y potenciación del "conocimiento organizativo", que necesariamente se ha de sustentar en personas, medios y tecnologías que deben ser gestionados convenientemente. Nace así la denominada era o sociedad de la información y del conocimiento.

El éxito y la excelencia son metas de la dirección y la respuesta estratégica para crear valor le lleva a poner en marcha sistemas, herramientas y entornos de trabajo que permitan realizar una gestión eficiente de la información y del conocimiento necesarios para responder a las estrategias, planes y objetivos de la organización. Se hablando de una “Gestión integrada y sistematizada” de los tres factores que en el contexto actual aparecen como determinantes del éxito o del fracaso de las organizaciones: Las personas, la tecnología y la información.

Blanco Dopico et alt. (1998, 1999 y 2002) analizan la estrategia y cultura organizativa y el aprendizaje organizacional e individual como elementos básicos de un "Sistema de información contable para la gestión estratégica", al señalar que éste, si la actuación organizativa se sustenta en una aproximación estratégica basada en el análisis prospectivo y el tratamiento de la incertidumbre, debería tratar de reflejar los posibles escenarios de actuación de la organización y las situaciones a las que deberá hacer frente, modelizando conjuntos de efectos y consecuencias mediante análisis sucesivos de diferentes combinaciones de los elementos del contexto general de la organización.

Es de general aceptación que el Capital intelectual tiene tres componentes o formas de manifestarse el conocimiento, pues el capital es conocimiento, que son:

a) Capital humano.
b) Capital estructural.
c) Capital relacional.

La integración de todo el conocimiento con el fin último de crear valor, y por tanto convertirlo en Capital financiero (cotización en bolsa) lleva a diseñar un sistema de Gestión del conocimiento que recoja los mecanismos que la organización tiene que poner en marcha para hacer factible que el modelo dinámico de Capital intelectual actúe y genere stock individual (capital humano) y colectivo (capital estructural y capital relacional).

Capital humano

Conocimiento de las personas (capacidad y compromiso). Es el valor de lo que los individuos pueden producir, tanto individual como, sobre todo, colectivamente. Tiene que ver con las competencias (conocimientos, habilidades y cualidades profesionales), con la capacidad de innovar y mejorar, y con el compromiso y la motivación (dedicación y calidad en la actuación). En definitiva, conocimiento aplicado muy relacionado con el compromiso. El modelo de gestión con relación al capital humano se centra en los siguientes aspectos:

1. Las competencias, que se materializan en:

a) Gestión de la formación: que supone contemplar la cantidad de formación, su calidad, la aplicabilidad y el acceso a la misma.
b) Gestión para definición y difusión de competencias o valores necesarios para alinearse con la estrategia y el logro de los objetivos.

2. La capacidad de innovar y mejorar, que se materializan en:

a) Gestión de la diversidad.
b) Gestión de la colaboración
c) Gestión de la iniciativa y de la creatividad.
d) Gestión del aprendizaje.
e) Gestión del cambio.

3. El compromiso y la motivación, que se materializan en:

a) Gestión participativa: interiorización y compromiso con el proyecto.
b) Gestión del reconocimiento, la motivación y la compensación.
c) Gestión de la comunicación interna: canales, mensajes, etc.
d) Gestión del clima de trabajo.
e) Gestión del cumplimiento.

Capital estructural

Conocimiento de la organización (conocimiento, tecnología y cultura). Es el valor del conocimiento clave sistematizado, empaquetado, difundido y accesible, conformado por los procesos, medios, infraestructuras, tecnología, sistemas y controles, que posibilitan la creación de valor. Por eso algunos (Edvinsson y Malone, 1999) lo separan en capital innovación (identificado como la renovación y los resultados de la innovación en forma de derechos comerciales protegidos, propiedad intelectual y otros activos intangibles, así como los talentos usados para crear y llevar rápidamente al mercado nuevos productos y servicios) y capital proceso (identificado como los procesos de trabajo, técnicas y programas para empleados que aumentan y fortalecen la eficiencia de producción o la prestación de servicios). El modelo de gestión con relación al capital estructural se centra en los siguientes aspectos:

1. Las infraestructuras de relación con el cliente, que se materializan en:

a) Despliegue de redes comerciales y canales de autoservicio y complementarios.
b) Localización y capacidad de atención de los canales.

2. Las tecnologías y la calidad de los procesos, que se materializan en:

a) Despliegue tecnológico: en cantidad, modernidad, capacidad adaptación al usuario.
b) Tecnologías de producto.
c) Gestión de la arquitectura de la información.
d) Certificaciones ISO, auditorías y resultados.

3. La organización y los sistemas de dirección y gestión, que se materializan en:

a) Actualización de las estructuras organizativas: funciones, organigramas, etc.
b) Sistemas de información de gestión.
c) Resultados de la función auditoría.

Capital relacional

Conocimiento del entorno aplicado o forma de relación de la organización con el exterior (base y valor de marca). Es el valor de la base de clientes, de la capacidad de mantener la relación con ellos y de su potencial, y el valor referido a otros agentes del entorno como los proveedores, las autoridades. Algunos lo separan en capital comercial (se centra en las relaciones con clientes y proveedores y en el conocimiento del grado de satisfacción de éstos) y capital comunicacional (relacionado con actividades de comunicación con el exterior dentro de las actividades de marketing). El modelo de gestión con relación al capital relacional se centra en los siguientes aspectos:

1. Lealtad y vinculación, que se materializan en:

a) Gestión de la calidad: interna y percibida por el cliente.
b) Gestión de la relación con los clientes.
c) Cuotas de mercado y cuotas de clientes.
d) Gestión de la marca

2. Intensidad, colaboración y conectividad, que se materializan en:

a) Gestión de canales: individual e integradamente
b) Gestión de convenios con clientes institucionales.
c) Gestión de la imagen corporativa..
d) Gestión de relaciones con la sociedad.
e) Gestión de alianzas estratégicas.

Incorporar indicadores (de esfuerzo realizado o de posicionamiento) en los sistemas de gestión permitirá a las organizaciones medir, efectuar un seguimiento de la evolución e incrementar su capital intelectual. Evidentemente, tales indicadores deben ser incorporados en los documentos de comunicación de información que elabore la organización, siendo un hecho cada vez más frecuente ver en los informes anuales (o con otro periodicidad) de las grandes empresas un apartado dedicado al capital intelectual.

La consideración de los indicadores (para la gerencia) cobra pleno sentido cuando forman parte, junto a otras informaciones sobre la entidad y su entorno, de un modelo de gestión basado en el cuadro de mando integral, que ha de servir de base para definir las relaciones causa-efecto entre objetivos, con la finalidad de fijar las estrategias y los correspondientes objetivos operativos, para evitar fines incompatibles, y para detectar desviaciones y explicar sus causas.

Como señalan Amat y Soldevilla (2002) previo a las formulaciones de Kaplan y Norton ya se utilizaba en el ámbito de la gestión el cuadro de mando como instrumento de información y control (la doctrina fracesa, especialmente, con profesores como Lauzel y Cibert, 1967, constatable empíricamente en varios trabajos) aunque sin visión integradora, que es asumida posteriormente (Blanco, 1976) aunque sin sustentarse en un modelo de relaciones entre los diversos indicadores que permitan identificar las causas y los efectos que afectan a los factores claves de éxito de una organización, aportación que surge con las propuestas sobre el cuadro de mando integral de Kaplan y Norton (1992, 1997 y 2000).

Siguiendo a Blanco Dopico et alt. (2002) señalamos que el diseño e implantación de un cuadro de mando integral parte, en primer lugar, de una definición clara de la visión/misión de la organización y de la estrategia que la misma pretenda desarrollar, por cuanto ambas condicionan el proceso de creación de valor de la entidad y sus factores críticos de éxito, cuyas características y relaciones causa-efecto dicho cuadro de mando busca representar y evaluar; y, en segundo lugar, se debe identificar a los usuarios de la información recogida en el mismo.

En todo caso, es necesario ser muy riguroso al incorporar los indicadores al cuadro de mando, que deben cumplir (AECA, 1998):

a) Ser fruto de la estrategia organizativa y estar concectados a las áreas y factores.
b) Referirse a objetivos concretos y alcanzables, que deben estar precisados.
c) Ser reflejo fiel de lo que ocurre en los procesos.
d) Medir aspectos relevantes de la actuación de la entidad
e) Ser fácilmente mensurables.
f) Ser claros y de fácil comprensión.

Las medidas interrelacionadas en que se traducirá la misión/visión de la organización en el cuadro de mando integral son alineadas, con un enfoque estratégico, en las siguientes perspectivas:

a) Financiera: objetivos de ingresos y rentabilidades que, en la mayoría de las organizaciones, sirven de soporte y enfoque a las restantes perspectivas. La cuestión sería: para maximizar el valor para el accionista ¿qué objetivos financieros se deben alcanzar? 
b) Clientes: segmentos de mercado y clientes en los que se quiere actuar, creando productos y servicios adecuados a los mismos. La cuestión sería: para alcanzar los objetivos financieros ¿qué necesidades del cliente/sociedad se deben satisfacer?
c) Procesos internos: aquellos que se han de llevar a cabo para cubrir las expectativas de los consumidores. La cuestión sería: para satisfacer a nuestros clientes, ¿en qué estructuras, sistemas, procesos, etc., de la cadena de valor se debe ser excelente?
d) Formación y crecimiento: capacidad de la organización y sus miembros para innovar y aprender, asegurando la posición competitiva actual y tratando de mejorar la futura. La cuestión sería: para alcanzar los objetivos financieros ¿cómo se debe aprender, innovar y crecer?

Enlazar las cuatro perspectivas o áreas críticas anteriores con el valor de las organizaciones/instituciones (Capital financiero + Capital intelectual) nos lleva a considerar que el capital humano y el capital estructural son facilitadores (causas) para la consecución del capital relacional y capital financiero de las mismas (efectos).

La gestión del conocimiento supone, de una forma simple y a la vez práctica, dos grandes retos para las organizaciones:

1. Poner a disposición de las personas (individual o colectivamente) el conocimiento explícito o codificado (información en todo tipo de soporte: libros artículos, guías, manuales, circulares, procedimientos, sistemas de trabajos, sistemas expertos) de carácter relevante a tiempo (Just in time) y en el lugar de trabajo (On the job).
2. Propiciar la codificación y comunicación del conocimiento tácito (el que está residenciado en la mente de las personas: juicio profesional, oficio, sentido de la institución, profesionalidad, expertise, etc.), lo que supone transformarlo en conocimiento explícito.