You are on page 1of 22

EL POSITIVISMO

El positivismo es una corriente o escuela filosófica que afirma que el único
conocimiento auténtico es el conocimiento científico, y que tal conocimiento
solamente puede surgir de la afirmación de las teorías a través del método
científico. El positivismo deriva de la epistemología que surge en Francia a inicios
del siglo XIX de la mano del pensador francés Saint-Simón primero, de Augusto
Comte segundo, y del británico John Stuart Mill y se extiende y desarrolla por el
resto de Europa en la segunda mitad de dicho siglo. Según esta escuela, todas las
actividades filosóficas y científicas deben efectuarse únicamente en el marco
del análisis de los hechos reales verificados por la experiencia.
Esta epistemología surge como manera de legitimar el estudio
científico naturalista del ser humano, tanto individual como colectivamente.
Según distintas versiones, la necesidad de estudiar científicamente al ser humano
nace debido a la experiencia sin parangón que fue la Revolución francesa, que
obligó por primera vez a ver a la sociedad y al individuo como objetos de estudio
científico.
Estas corrientes tienen como características diferenciadoras la defensa de un
monismo metodológico (teoría que afirma que hay un solo método aplicable en
todas las ciencias). La explicación científica ha de tener la misma forma en
cualquier ciencia si se aspira a ser ciencia, específicamente el método de estudio
de las ciencias físico-naturales. A su vez, el objetivo del conocimiento para el
positivismo es explicar causalmente los fenómenos por medio de leyes generales y
universales, lo que le lleva a considerar a la razón como medio para otros fines
(razón instrumental). La forma que tiene de conocer es inductiva, despreciando la
creación de teorías a partir de principios que no han sido percibidos
objetivamente. En metodología histórica, el positivismo prima fundamentalmente
las pruebas documentadas, minusvalorando las interpretaciones generales, por lo
que los trabajos de esta naturaleza suelen tener excesiva acumulación
documental y escasa síntesis interpretativa. Auguste Comte formuló a mediados
del siglo XIX la idea de la creación de la sociología como ciencia que tiene a la
sociedad como su objeto de estudio. La sociología sería un conocimiento libre de
todas las relaciones con la filosofía y basada en datos empíricos en igual medida
que las ciencias naturales Una de sus propuestas más destacadas es la de la
investigación empírica para la comprensión de los fenómenos sociales, de la
estructura y el cambio social (razón por la que se le considera padre de la
sociología como disciplina científica). Comte presenta a la historia humana en
tres fases:
Fase teológica o mágica: corresponde a la infancia de la humanidad; en esta
época las personas dan explicaciones mágicas de los fenómenos naturales,
utilizan categorías antropológicas para comprender el mundo y técnicas mágicas
para dominarlo.


Fase metafísica o filosófica: las explicaciones son racionales, se busca el porqué
de las cosas, y se sustituye a los dioses por entidades abstractas y términos
metafísicos.
Fase científica o positiva: es la definitiva. El conocimiento se basa en la
observación y la experiencia, y se expresa con el recurso de la matemática. Se
busca el conocimiento de las Leyes de la Naturaleza para su dominio técnico.
Además afirma que no es posible alcanzar un conocimiento de realidades que
estén más allá de lo dado, de lo positivo, y niega que la filosofía pueda dar
información acerca del mundo: esta tarea corresponde exclusivamente a las
ciencias.
Como reacción a la epistemología positivista, surge, principalmente en Alemania,
la epistemología hermenéutica. Entre las críticas que se le hacen al positivismo
está la incapacidad que posee el método de las ciencias físico-naturales para
conocer sus objetos de estudio (la sociedad, el hombre, la cultura), los cuales
poseerían propiedades como la intencionalidad, la auto-reflexividad y la
creación de significado, que serían dejados de lado por la epistemología
positivista. A su vez, dentro de la hermenéutica, cabría una crítica a la búsqueda
de leyes generales y universales, pues deja de lado necesariamente los elementos
que no pueden ser generalizados. Así, algunos hermeneutas defienden un
conocimiento ideográfico (de conocimientos más precisos, pero menos
generalizables), que uno nomotético desde la hermenéutica, se planteó la
necesidad de conocer las causas internas de los fenómenos, cuestión que se
alejaba de la explicación externa de estos. Así en vez de buscar la explicación,
los hermeneutas buscan la comprensión de los fenómenos.
Durante el siglo XX, a partir de los estudios de Bertrand Russell y otros, el filósofo
Ludwig Wittgenstein elabora el texto Tractatus Logico-Philosophicus, que sirve de
inspiración para el surgimiento del Círculo de Viena, grupo de intelectuales que
tuvo como objetivo el alejar definitivamente a la ciencia de la metafísica, a partir
del desarrollo de la lógica de Russell. Esta propuesta plantea un método basado
en la experimentación observación y recolección objetiva de datos a fin de
buscar explicaciones a las causas que originan los fenómenos.
Entre las corrientes positivistas se puede mencionar al positivismo ideológico, al
empiriocriticismo, al positivismo metodológico o conceptual al positivismo
analítico, al positivismo sociológico, al positivismo realista y al neopositivismo
(empirismo lógico o neopositivismo lógico). Los enfoques sociologistas en filosofía
de la ciencia y epistemología han sido tradicionalmente los principales críticos del
positivismo, aunque ambas posturas no son necesariamente contradictorias.


En el campo del Derecho el denominado positivismo jurídico o iuspositivismo, no
tiene una relación directa con el positivismo filosófico, sino con el concepto de
Derecho positivo (la consideración del Derecho como creación del ser humano).
En el campo de la psicología se puede mencionar al Conductismo o Psicología
conductista, como pioneros en la aplicación de la metodología científica al
estudio de la conducta humana. Actualmente en la Psicología conviven múltiples
escuelas, muchas de las cuales se basan en el positivismo para el estudio del ser
humano. Entre dichas escuelas o enfoques destacan el Cognitivo-Conductual, el
enfoque Sistémico, o la recientemente llamada Psicoterapia de Tercera
Generación (enfoque que sin abandonar el positivismo, incorpora variables más
ideográficas al estudio del ser humano)















EL FALSACIONISMO
El falsacionismo, refutacionismo o principio de falsabilidad es una corriente
epistemológica fundada por el filósofo austriaco Karl Popper (1902-1994).


Para Popper, contrastar una teoría significa intentar refutarla mediante un
contraejemplo. Si no es posible refutarla, dicha teoría queda corroborada,
pudiendo ser aceptada provisionalmente, pero nunca verificada. Dentro
del falsacionismo metodológico, se pueden diferenciar el falsacionismo
ingenuo inicial de Popper, el falsacionismo sofisticado de la obra tardía de
Popper y la metodología de los programas de investigación de Imre
Lakatos.
El problema de la inducción nace del hecho de que no se puede afirmar
algo universal a partir de los datos particulares que ofrece la experiencia.
Por muchos millones de cuervos negros que se vean, no será posible
afirmar que «todos los cuervos son negros». En cambio, basta encontrar un
solo cuervo que no sea negro para poder afirmar: «No todos los cuervos
son negros». Por esa razón Popper introduce el falsacionismo como criterio
de demarcación científica.
Popper en realidad rechaza el verificacionismo como método de
validación de teorías. Su tesis central es que no puede haber enunciados
científicos últimos, es decir, enunciados que no puedan ser contrastados o
refutados a partir de la experiencia. La experiencia sigue siendo el método
distintivo que caracteriza a la ciencia empírica y la distingue de otros
sistemas teóricos.
Para Popper ni existen puntos de partida incuestionables ni la racionalidad
científica los requiere. El asunto de la verdad es, pues, cuestión del método
de buscarla y del método de reconocer la falsedad. Aunque la ciencia es
inductiva en primera instancia, el aspecto más importante es la parte
deductiva. La ciencia se caracteriza por ser racional, y la racionalidad
reside en el proceso por el cual sometemos a crítica y remplazamos, o no,
nuestras creencias. Frente al problema de la inducción Popper propone
una serie de reglas metodológicas que nos permiten decidir cuándo
debemos rechazar una hipótesis.
Popper propone un método científico de conjetura por el cual se deduce
las consecuencias observables y se ponen a prueba. Si falla la
consecuencia, la hipótesis queda refutada y debe entonces rechazarse.
En caso contrario, si todo es comprobado, se repite el proceso
considerando otras consecuencias deducibles. Cuando una hipótesis ha
sobrevivido a diversos intentos de refutación se dice que está corroborada,


pero esto no nos permite afirmar que ha quedado confirmada
definitivamente, sino sólo provisionalmente, por la evidencia empírica.
Para los falsacionistas el científico es un artista en tanto que debe proponer
audazmente una teoría que luego será sometida a rigurosos experimentos
y observaciones. El avance en la ciencia está en falsar sucesivas teorías
para así, sabiendo lo que no es, poder acercarse cada vez más a lo que
es.
Las hipótesis que proponen los falsacionistas deben ser falsables, es decir,
pueden ponerse a prueba y ser desmentidas por los hechos o por un
experimento adverso. Para cumplir con esta condición, las hipótesis deben
ser lo más generales posible y lo más claras y precisas posible. Una hipótesis
falsable no sería «mañana tal vez llueva», ya que en ningún caso se puede
falsar («mañana tal vez no llueva»).
Una hipótesis falsable sería «el planeta Mercurio gira en una órbita». Una
hipótesis más general (y por lo tanto más falsable) sería «todos los planetas
giran en una órbita». Y una hipótesis más precisa (y por lo tanto también
más falsable) sería «todos los planetas giran en una órbita elíptica».
Los falsacionistas siempre prefieren las hipótesis o teorías que sean más
falsables, es decir más susceptibles de ser demostrada su falsedad,
mientras que no hayan sido ya falsadas. Así la ciencia progresaría a base
de ensayo y error.
Una teoría será considerada falsable cuando se pueda dividir de manera
precisa sus enunciados de base -referidos a acontecimientos observables-
en dos subclases no vacías: la de todos los enunciados de base con los
cuales está en contradicción -que enuncian lo que ella excluye o prohíbe-,
sus falseadores potenciales, y la de todos los enunciados con los cuales no
está en contradicción -los que enuncian lo que ella permite
Para los falsacionistas el científico es un artista en tanto que debe proponer
audazmente una teoría que luego será sometida a rigurosos experimentos
y observaciones. El avance en la ciencia está en falsar sucesivas teorías
para así, sabiendo lo que no es, poder acercarse cada vez más a lo que
es.



Las hipótesis que proponen los falsacionistas deben ser falsables. Esto
significa que deben ser susceptibles de ser falsadas. Para cumplir con esta
condición, las hipótesis deben ser lo más generales posible y lo más claras y
precisas posible. Una hipótesis no falsable sería “Mañana tal vez llueva”, ya
que en ningún caso se puede falsar.

Una hipótesis falsable sería “el planeta Mercurio gira en una órbita”. Una
hipótesis más general y por lo tanto más falsable sería “todos los planetas
giran en una órbita”. Y una hipótesis más precisa y por lo tanto también
más falsable sería “todos los planetas giran en una órbita elíptica”.

Los falsacionistas, que se apoyan en se apoya en el Método hipotético
deductivo prefieren las hipótesis o teorías que sean más falsables, es decir
más susceptibles de ser demostrada su falsedad, mientras que no hayan
sido ya falsadas. Así la ciencia progresaría a base de ensayo y error.-









LOS PARADIGMAS
El término paradigma significa «ejemplo» o «modelo». En todo el
ámbito científico, religioso u otro contexto epistemológico, el
término paradigma puede indicar el concepto de esquema formal de


organización, y ser utilizado como sinónimo de marco
teórico o conjunto de teorías.
En los tiempos modernos, este concepto fue originalmente específico de la
gramática; en 1992 el diccionario Merriam-Webster definía su uso
solamente en tal contexto, o en retórica para referirse a una parábola o a
una fábula. En lingüística, Ferdinand de Saussure ha usado paradigma
para referirse a una clase de elementos con similitudes.
El término también presenta otros significados más específicos, su
significado en el terreno de la psicología se refiere a aceptaciones de
ideas, pensamientos, creencias incorporadas generalmente durante
nuestra primera etapa de vida y que se aceptan como verdaderas o falsas
sin ponerlas a prueba en un nuevo análisis; en cambio, su significado
contemporáneo en la comunidad científica se refiere al conjunto de
prácticas o teorías que definen una disciplina científica, luego de haber
sido, y aun son puestas, a numerosas pruebas y análisis a través del tiempo,
y por ello aun se mantienen vigentes.
El término paradigma1 se origina en la palabra griega παράδειγμα
[parádeigma] que a su vez se divide en dos vocablos παρά [pará] ("junto")
y δεῖγμα [deīgma] ("ejemplo", "patrón"). Originariamente significa patrón,
modelo. En arquitectura, «modelo» (maqueta) o «plano» de un edificio y
también es utilizado por escultores y pintores de manera semejante.3 En
Platón, los paradigmas son los modelos divinos a partir de los cuales están
hechas las cosas terrestres.4 A su vez tiene las mismas raíces que
«demostrar».
En términos generales se puede definir al término paradigma como la
forma de visualizar e interpretar los múltiples conceptos, esquemas o
modelos del comportamiento en todas las etapas de la humanidad en lo
psicológico y filosófico,(y en diversas disciplinas, como el trabajo social),
que influyen en el desarrollo de las diferentes sociedades así como de las
empresas, integradas e influenciadas por lo económico, intelectual,
tecnológico, científico, cultural, artístico, y religioso que al ser aplicados
pueden sufrir modificaciones o evoluciones según las situaciones para el
beneficio de todos.
El filósofo y científico Thomas Kuhn dio a paradigma su significado
contemporáneo cuando lo adoptó para referirse al conjunto de prácticas


que definen una disciplina científica durante un período específico. El
mismo Kuhn prefería los términos ejemplar o ciencia normal, que tienen un
significado filosófico más exacto. Sin embargo, en su libro La estructura de
las revoluciones científicas define a un paradigma de la siguiente manera:
 lo que se debe observar y escrutar;
 el tipo de interrogantes que se supone hay que formular para hallar
respuestas en relación al objetivo;
 cómo deben estructurarse estas interrogantes,
 cómo deben interpretarse los resultados de la investigación
científica.
El autor parte diciendo en este capítulo que existen 2 concepciones de
paradigma, pero durante el texto solo tomara en cuenta el paradigma
global. Comienza dicho capítulo diciendo que el paradigma o conjunto
de paradigmas son lo que comparten sus miembros (la comunidad
científica), producto de la buena comunicación y la igualdad en sus
juicios. Los científicos dicen que compartirán un conjunto de teorías o una
teoría científica, esto se relaciona con una estructura de naturaleza y
alcance mucho más limitados de lo que requiere el texto, por lo cual dicho
término en este capítulo queda descartado. 6
Los objetos de compromiso que considera el autor están relacionados
directamente con paradigmas, partes de paradigmas o paradigmáticos
que son constituyentes de esta matriz disciplinar.
Los modelos paradigmáticos son modelos metafísicos y epistemológicos,
que proporcionan el "contexto" en que se forman los diferentes modelos
teóricos y teorías de un nivel inferior, presentando las directrices generales
de agrupamiento de las diferentes teorías.
Alternativamente, el Diccionario Oxford define a paradigma como "Un
patrón o modelo, un ejemplo". Así, un componente adicional de la
definición de Kuhn es:
 Cómo debe conducirse un experimento y qué equipamiento está
disponible para realizarlo.
De esta forma, dentro de la ciencia normal, un paradigma es el conjunto
de experimentos modélicos capaces de ser copiados o emulados; siendo
la base para crear un consenso científico. El paradigma prevalente


presente en el consenso imperante, a menudo, una forma más específica
de ver la realidad o las limitaciones de propuestas para la investigación
futura; más que un método científico mucho más genérico. Esto nos
pudiera conducir a un paradigma positivista.
Un ejemplo de paradigma comúnmente aceptado sería el modelo
estándar de la física. Los métodos científicos permitirían a los científicos
ortodoxos investigar muchos fenómenos que pueden resultar
contradictorios o contrastantes con el modelo estándar. Sin embargo es
mucho más difícil obtener consenso para los mismos, en proporción a la
divergencia de los principios aceptados del modelo estándar que tales
experimentos examinarían. Por ejemplo, un experimento para investigar la
masa del neutrino o la descomposición de neutrones recibiría más fondos
que un experimento que buscara violaciones a la conservación de
momentos, o pretendiera estudiar la ingeniería de los viajes en el tiempo.
Algunos conceptos más despectivos (pensamiento de grupo7 o su casi
equivalente Mindset) tienen significados muy similares que aplican a
pequeña y gran escala del pensamiento disciplinado. Michel Foucault usó
los términos epistemológico, discursivo, matesis y taxinomial, para aspectos
del paradigma en el sentido original dado por Kuhn.







CIENCIA Y ETICA
La palabra ética proviene del griego ethos cuyo significado es
“costumbre“. Tiene como objeto de estudio la moral y la acción humana.
Su estudio se remonta a los orígenes de la filosofía moral en Grecia y su
desarrollo histórico ha sido diverso. Una doctrina ética elabora y verifica
afirmaciones o juicios determinados. Esta sentencia ética, juicio moral o


declaración normativa es una afirmación que contendrá términos tales
como „malo‟, „bueno‟, „correcto‟, „incorrecto‟, „obligatorio‟, „permitido‟,
etc, referido a una acción o decisión. Cuando se emplean sentencias
éticas se está valorando moralmente a personas, situaciones, cosas o
acciones. De este modo, se están estableciendo juicios morales cuando,
por ejemplo, se dice: “Ese político es corrupto”, “Ese hombre es
impresentable”, “Su presencia es loable”, etc. En estas declaraciones
aparecen los términos „corrupto‟, „impresentable‟ y „loable‟ que implican
valoraciones de tipo moral.

La ética estudia la moral y determina qué es lo bueno y, desde este punto
de vista, cómo se debe actuar. Es decir, es la teoría o la ciencia del
comportamiento moral. (….).La ética es una de las principales ramas de la
Filosofía, en este campo ésta es el conjunto de valoraciones generales de
los seres humanos que viven en sociedad

La Ética de la Ciencia
Si nos atenemos a los valores éticos de la ciencia, personalmente ya
comienzo a entristecerme. Y no se trata de aquellos valores que afectan a
la indagación científica contemporánea, sino que si uno se remonta
muchos siglos atrás, como es el caso de las relaciones e investigaciones
armamentísticas que conciernen a Maquiavelo y Leonardo Da Vinci). Por
mucho que se insista en mentar que la ciencia se concentra en el progreso
de las sociedades humanas nadie puede soslayar, por ejemplo,
el imponente papel que desempeña la investigación destinada a generar
la maquinaria armamentística (como en el caso aludido de Maquiavelo
y Da Vinci). Como muchos de nosotros sabemos los principales
consumidores de los fondos destinados a I + D + i, al menos en el caso de
los países más poderosos, son sus ejércitos, la cual debería ser una materia
de profunda reflexión.

En estos casos, nos viene a la memoria el manido tema de la bomba
atómica con la que termino la segunda guerra mundial. Sin
embargo, nada ha cambiado desde entonces. Ya hablemos de
biotecnología, nanotecnología, física experimental o inteligencia artificial,
entre otras ramas del conocimiento científico, aterra la influencia de los
denominados eufemísticamente gastos de defensa.

La Ética de los Científicos

En este ambiente, los investigadores se enfrentan al menos a tres tipos de
cuestiones éticas, aunque posiblemente sean muchos más.



Por un lado, nos encontramos con la ética del trabajo, entendiéndose
como tal sus relaciones con otros colegas, y excluyendo los temas
relacionados con el fraude y mala praxis científica. Mobbing (acosos
laborales de todo tipo), difamaciones, etc., vienen siendo denunciadas y
afectan a muchos de los considerados “científicos de excelencia, incluidos
Premios Nobeles”. Os recomiendo una vez más la lectura del interesante
libro “La Anatomía del Fraude Científico”, escrito por H. Freeland (Editorial
Crítica), por cuanto sobre este tema y el ya comentado del fraude y la
mala praxis ofrece numerosísimos y recientes ejemplos que suelen
ocultarse, tanto por la prensa general, como por la especializada. Por otro
lado, están los consabidos temas que mentamos en el último lugar y que
son conocidos como “conductas inapropiadas”. De ellos hablaremos en
último lugar.

Por último, habría que mencionar otra cuestión cuya preocupación
parece no afectar a nadie. Como profesionales y como ciudadanos,
deberíamos sopesar los posibles usos de nuestros estudios y como estos
afectan a los ciudadanos. Cuando uno trabaja para la empresa privada
los salarios se los proporcionan las compañías (que a menudo también son
financiadas con fondos públicos).

Los Estados fomentan su ingreso apelando al “desarrollo y sociedad
del conocimiento”.
Son muchos los colegas que colaboran acríticamente con las instituciones
a las que se encuentran sujetos.

En condiciones normales, nada que objetar, faltaría más. Sin
embargo, cuando nuestras autoridades se descarrían o tomas decisiones
afortunadas que afectan a los ciudadanos el tema
cambia diametralmente.
Quien paga realmente a los que trabajamos para las “Instituciones
Gubernamentales”, son la personas de a pié mediante sus impuestos. Por
tanto, es a ellos a los que deberíamos servir en primer lugar. Un colega no
puede escudarse en que ha hecho esto o aquello porque lo manda quien
manda. Y si este argumento debería ser valido para todos los humanos,
más lo es aún para quienes cobramos del pueblo. No se trata de fomentar
la insumisión ni la subversión, sino de denunciar lo éticamente incorrecto,
cuando no deplorable. De nuevo os muestro mi opinión sobre un tema que
no requiere mucha erudición, aunque hay casos más sangrantes, si bien es
cierto que afectan a un menor número de individuos. Dicho de otro modo
se trata de un ejemplo ilustrativo que suele pasarse por alto.
Si la Docencia en la Universidad Española dista mucho de ofrecer los frutos
de otros países de nuestro entorno, se debe tanto a las decisiones políticas
como a la pasividad de los profesionales que la imparten. Por tanto, si los


gobiernos toman decisiones que los docentes consideran perjudiciales
para la formación de nuestros jóvenes ciudadanos, es su responsabilidad
con “quienes les pagan el sueldo” protestar, denunciar y hacerse
escuchar hasta que el poder reconozca su error. En caso contrario (muy
acomodaticio) se convierte en cómplice, por que “quien calla otorga”.
Considero que esta misma argumentación es válida para cualquier
colectivo de científicos (universitarios o no) que reconociendo que ciertas
decisiones no son apropiadas, no exige su rechazo. Y es aquí en donde los
practicantes de la ciencia actual fracasamos estrepitosamente. Se nos
socava la libertad de cátedra y expresión, sin que nos alcemos en armas.
De este modo, la ciudadanía pierde un pilar y los poderes un enemigo
equilibrante. ¿Es eso la sociedad de la información y el conocimiento?
¿Quién sufre las consecuencias?
¿dónde está la búsqueda del talento? ¿A que talento nos
referimos? Necesitamos tanto talante como talento. No lo duden. Pero
nadie se preocupa por este último. La ética siempre pasa a la cola del
tren.









IMPACTO Y CONSECUENCIAS SOCIALES Y, ETICAS DEL
DESARROLLO CIENTIFICO Y TECNOLOGICO.
La ética y al desarrollo tecnológico como actual conflicto en la sociedad
en que vivimos, cuya relevancia radica en que a causa del acelerado
desarrollo tecnológico surgen variadas problemáticas en las cuales la ética
tiene un papel fundamental en las decisiones y en nuestras vidas, de tal
forma que su relevancia no solo se centra en nuestro país sino que
alrededor del mundo de manera desigual de esta forma las opiniones para
juzgar son diferentes y no se imparten de igual forma para todos por lo
tanto las consecuencias que estas acarrean son distintas.



En este informe se tratara el tema de distintos puntos de vista, ya sea de
cómo del desarrollo tecnológico medioambiental, científico, e informático
de los cambios favorables que tendrían al igual que los desastres que
pueden conllevar a distinto plazo. Así nuestra investigación se ampliara con
el fin de aclarar de manera explícita las distintas interrogantes que surgen
con respecto a la ética en los diferentes ámbitos de una sociedad. En la
siguiente investigación pretendemos dar una idea más menos precisa en
cuanto a la relación que tiene la opinión ética hacia el activo avance del
desarrollo en las tecnologías del mundo actual. Abordaremos también el
cómo las avances tecnológicos pueden afectar el desarrollo social y
cultural de un país, y las razones de porque hay países aún en proceso de
desarrollo.

Además podrá encontrar en esta investigación múltiples ejemplos de casos
de la vida cotidiana o lo que afecta hoy en día al mundo y sale en los
noticiarios, por lo que se familiarizara de manera más fácil con el tema en
cuestión así podrá sacar sus propias conclusiones, plantear críticas y
obtener una opinión más firme respecto a lo que ocurre en el mundo
actual, ya que daremos sus motivos, consecuencias y como estas a su vez
afecta las normas morales.
Ética y desarrollo tecnológico
En los últimos años se han desarrollado muchas tecnologías, las cuales han
cambiado drásticamente la forma de vivir de cada individuo, tanto social
como personalmente. La mayoría de estos cambios son debatibles en el
sentido de que si son buenos para la sociedad o podrían generan, a largo
o corto plazo, una mal mayor e imprevisto. El verdadero debate se basa en
que si estos „‟problemas‟‟ afectan las normas morales de una sociedad.
Para poder reconocer realmente si estos avances afectan de algún modo
tenemos que distinguir entre cambios tecnológicos y cambios generados
por la tecnología. Un cambio tecnológico es aquel que se produce a
causa de un avance o descubrimiento tecnológico que modifica cambia
la manera de realizar una actividad, como por ejemplo, el podar el pasto
con tijeras que luego fue cambiado por la podadora la cual facilito esta
tarea.
Mientras que los cambios generados por tecnología modifican la cultura
de la sociedad. Por ejemplo, la invención de la rueda provoco una


drástica modificación en la manera de vivir de la gente. Por lo que al tener
en claro estos 2 puntos se puede deducir que ambos van de la mano ya
que el generar una nueva tecnología es posible cambiar de forma drástica
las bases de una sociedad.
Al momento de analizar los cambios sociales producidos por la
incorporación de nuevas tecnologías, se debe tener en cuenta las
características de la sociedad que lo realiza. La mayoría de los cambios
tecnológicos, y más aún en las tecnologías de la información, se producen
como respuesta a demandas de mercado. Baste como ejemplo el
desarrollo de computadores cada vez más potentes que pretenden
satisfacer la demanda de mayor capacidad de procesamiento de datos
por parte de las empresas.
Es innegable el hecho de que los cambios tecnológicos constituyen
constantes desafíos a los sistemas éticos de las sociedades y que la
diferencias entre tipos de sociedades anteriormente planteada condiciona
la transferencia o traslación de cambios en los sistemas éticos entre las
distintas sociedades puesto que las realidades pueden ser radicalmente
distintas. La ética es el estudio de las normas morales por ende cuando
algo está relacionado con cambios producidos en la sociedad por los
cambios y avances tecnológicos, la ética se encarga de estudiar si este
toma un papel favorable o no en la sociedad.
El desarrollo científico y tecnológico es una de los factores más influyentes
de la sociedad contemporánea. La globalización mundial, polarizadora de
la riqueza y el poder, sería impensable sin el avance de las fuerzas
productivas que la ciencia y la tecnología han hecho posibles.
Los poderes políticos y militares, la gestión empresarial, los medios
de comunicación masiva, descansan sobre pilares científicos y
tecnológicos. También la vida del ciudadano común está notablemente
influida por los avances tecno científicos.
La tecno ciencia es un asunto de la mayor importancia para la vida
pública y, sin embargo, por su carácter especializado y el
lenguaje esotérico al que recurre, su manejo suele estar en manos
de grupos relativamente reducidos de expertos. Los expertos, además,
suelen serlo en campos muy específicos y pocas veces tienen una visión
global de una disciplina científica y menos aún de la ciencia en su
conjunto.
Los sistemas educativos, desde los niveles primarios hasta los posgrados, se
dedican a enseñar la ciencia, sus contenidos, métodos, lenguajes. Desde


luego, hay que saber de ciencia, pero – y es la tesis que defendemos-
también debemos esforzarnos por saber algo sobre la
ciencia, en especial sobre sus características culturales, sus rasgos
epistemológicos, los conceptos éticos que la envuelven y
su metabolismo con la sociedad. Lo mismo puede decirse de la
tecnología.
Investigar sobre la ciencia y la tecnología es un objetivo que comparten
disciplinas muy diversas como la Historia, la Sociología, la Filosofía, todas de
larga tradición.
En los años 60 se habían acumulado numerosas evidencias de que el
desarrollo científico y tecnológico podía traer consecuencias negativas a
la sociedad a través de su uso militar, el impacto ecológico u otras vías por
lo cual se fue afirmando una preocupación ética y política en relación con
la ciencia y la tecnología que marcó el carácter de los estudios sobre ellas.
Se hizo cada vez más claro que la ciencia y la tecnología son procesos
sociales profundamente marcados por la civilización donde han crecido;
el desarrollo científico y tecnológico requiere de una estimación cuidadosa
de sus fuerzas motrices e impactos, un conocimiento profundo de sus
interrelaciones con la sociedad. Junto a esto, los panoramas que muestran
el proceso que dio lugar al despegue de estos estudios en los años sesenta,
se refieren al esfuerzo por superar visiones tradicionales de la ciencia y la
tecnología que subvaloran o ignoran las determinaciones e impactos
sociales del desarrollo científico y tecnológico[1]


.


DESARROLLO SUSTENTABLE, SOCIEDAD DEL
CONOCIMIENTO Y PRINCIPIO DE PRECAUCIÓN
Desarrollo sostenible, término aplicado al desarrollo económico y social
que permite hacer frente a las necesidades del presente sin poner en
peligro la capacidad de futuras generaciones para satisfacer sus propias
necesidades. Hay dos conceptos fundamentales en lo que se refiere al uso
y gestión sostenibles de los recursos naturales del planeta. En primer lugar,
deben satisfacerse las necesidades básicas de la humanidad, comida,
ropa, lugar donde vivir y trabajo.

Esto implica prestar atención a las necesidades, en gran medida
insatisfechas, de los pobres del mundo, ya que un mundo en el que la
pobreza es endémica será siempre proclive a las catástrofes ecológicas y
de todo tipo. En segundo lugar, los límites para el desarrollo no son
absolutos, sino que vienen impuestos por el nivel tecnológico y de
organización social, su impacto sobre los recursos del medio ambiente y la
capacidad de la biosfera para absorber los efectos de la actividad
humana. Es posible mejorar tanto la tecnología como la organización
social para abrir paso a una nueva era de crecimiento económico sensible
a las necesidades ambientales.

Durante las décadas de 1970 y 1980 empezó a quedar cada vez más claro
que los recursos naturales estaban dilapidándose en nombre del
„desarrollo‟. Se estaban produciendo cambios imprevistos en la atmósfera,
los suelos, las aguas, entre las plantas y los animales, y en las relaciones
entre todos ellos. Fue necesario reconocer que la velocidad del cambio
era tal que superaba la capacidad científica e institucional para ralentizar
o invertir el sentido de sus causas y efectos.

Estos grandes problemas ambientales incluyen:
1) el calentamiento global de la atmósfera (el efecto invernadero), debido
a la emisión, por parte de la industria y la agricultura, de gases (sobre todo
dióxido de carbono, metano, óxido nitroso y clorofluorocarbonos) que
absorben la radiación de onda larga reflejada por la superficie de la Tierra;
2) el agotamiento de la capa de ozono de la estratosfera, escudo
protector del planeta, por la acción de productos químicos basados en el
cloro y el bromo, que permite una mayor penetración de rayos ultravioleta
hasta su superficie;
3) la creciente contaminación del agua y los suelos por los vertidos y
descargas de residuos industriales y agrícolas;


4) el agotamiento de la cubierta forestal (deforestación), especialmente
en los trópicos, por la explotación para leña y la expansión de la
agricultura;
5) la pérdida de especies, tanto silvestres como domesticadas, de plantas
y animales por destrucción de hábitats naturales, la especialización
agrícola y la creciente presión a la que se ven sometidas las pesquerías;
6) la degradación del suelo en los hábitats agrícolas y naturales,
incluyendo la erosión, el encharcamiento y la salinización, que produce
con el tiempo la pérdida de la capacidad productiva del suelo.
.El «principio de precaución» [traducción del alemán “Vorsorgeprinzip”] es
objeto de debate en tecnoética, en bioética y en teoría de la
sostenibilidad desde mediados de la década de 1990, cuando fue
repetidamente invocado como argumento en las decisiones
gubernamentales de los Estados europeos a propósito de la epidemia de
«vacas locas». A nivel internacional su eclosión se produce en la
Declaración de Rio (1992) y, en Estados Unidos emerge con la Declaración
de Wingspread (1998). Sin embargo, en el Estado español la apelación
jurídica y moral al «principio de precaución», conocido sólo en ambientes
académicos, se popularizó algunos años más tarde, en el contexto de la
lucha contra el transvase del Ebro y sus graves consecuencias sobre el
medio ambiente.
El debate llegó a la opinión pública al plantearse la cuestión de los fallos
de “precaución” que provocaron el hundimiento del petrolero «Prestige»
ante las costas gallegas (2002), convertido ya en la mayor catástrofe
ecológica europea de los últimos decenios.
Hay cada vez mayor acuerdo, inducido por experiencias muchas veces
crueles (catástrofes sanitarias, alimentarias, ambientales, etc.), acerca de
que determinadas formas de contaminación y destrucción del hábitat son
del todo irreparables; y que no sólo afectarían a las generaciones futuras
sino –básicamente– a nosotros mismos, a nuestra salud y a nuestra
economía. El «principio de precaución» funciona progresivamente como
criterio no sólo ético sino político y jurídico, precisamente porque en el
horizonte de las sociedades postindustriales se hace presente la posibilidad
racional no sólo del riesgo sino de la catástrofe irreparable.
No es sólo el medio ambiente de nuestros nietos lo que se destruiría, por
ejemplo, por el accidente de un petrolero ante la Costa Brava, o por una
nube radioactiva en Vandellós. Además del aire y del paisaje, se hundirían
irremisiblemente vidas humanas, instalaciones, grandes inversiones y, con
ellas, miles de puestos de trabajo y todo el sector turístico e industrial local.
La precaución se vuelve, pues, imprescindible como herramienta de


supervivencia personal y colectiva. Más allá de plantear riesgos puramente
hipotéticos, la ética del «principio de precaución» nos propone la gestión
responsable del riesgo tecnocientífico: se trata de evitar la fatal tentación
“asimilativa” del riesgo para proponer una acción “anticipativa” basada
en “clean technologies” pero, sobre todo, en una clara opción moral por
la responsabilidad tecnológica y ambiental.
En una primera aproximación comenzaremos planteando lo que el
«principio de precaución» no es, porque demasiadas veces la precaución
aparece en la bibliografía de tecnoética con una connotación negativa,
casi policíaca, que debiera ir superándose. Sería también erróneo vincular
el «principio de precaución» exclusivamente a la teoría aristotélica de la
prudencia y, peor todavía, confundirlo con una cierta idea de “término
medio” o de “moderación”, como sucede a veces en una vulgarización
tan apresurada como engañosa. Tampoco es correcto, finalmente,
vincular la precaución a una supuesta política de “riesgo cero”, imposible
en la sociedad tecnocientífica.
El «principio de precaución» debe situarse, más en concreto, junto a la
bioética, a ética del medio ambiente y a la teoría del desarrollo sostenible,
como un concepto central para el replanteamiento de la idea de
progreso en la modernidad avanzada. La teoría de la precaución no sólo
incluye la perspectiva “negativa” de la reducción de riesgos, sino que
básicamente propone una nueva relación responsable del hombre con la
naturaleza y la tecnociencia.
El concepto de “precaución” no incluye necesariamente una evaluación
negativa de la tecnociencia, ni tampoco conlleva una restricción de la
investigación; pero exige una clara conciencia de la responsabilidad en
todas y cada una de las fases del proceso tecnocientífico. El «principio de
precaución» es una herramienta útil para avanzar en la definición de un
nuevo Contrato social, que defina las relaciones sociales que emergen en
la sociedad postindustrial avanzada.
Tal vez sólo se toma plena conciencia de la importancia de conceptos
como “precaución” y “riesgo” en un contexto de desarrollo económico y
en una economía postindustrial. Pero conviene aclarar que el «principio de
precaución» se dirige a todos los países (ricos o pobres, del Norte o del Sur)
porque implica, en su horizonte más humanizador, una nueva manera de
habitar la tierra, reconociendo la mutua interdependencia entre países y
entre individuos que provoca la extensión de la tecnociencia.
ÉTICA Y TECNOLOGÍA


Las amenazas son los efectos que estamos sufriendo de las acciones humanas
dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado
de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con
fines hegemónicos.
Lo que nos ha llevado a una profunda crisis ambiental, sin dudas la más seria
amenaza que enfrenta la humanidad mas peligrosa aun que la amenaza nuclear ya
esta dependía de una acción, apretar el botón, esta solo depende de nuestra
indeferencia.
"El desarrollo sostenible es el desarrollo que satisface las necesidades de la
generación presente sin comprometer la capacidad de las generaciones futuras para
satisfacer sus propias necesidades"
(Comisión Mundial del Medio Ambiente y del Desarrollo, 1988).
Esta definición ha sufrido fuertes críticas, por estar limitada al desarrollo y las
necesidades que este genera. Lo cual nos lleva a una actitud preactiva del futuro, que
ignora la fuerza transformadora de los actores sociales y la necesidad de cambios
profundos al contexto socioeconómico actual.

Las tecnologías convergentes y la necesidad de un enfoque transdisciplinario (1)
Cuando nos asomamos a entender el mundo físico, biológico, cultural en el que
nos encontramos, es a nosotros mismos a quienes descubrimos y es con nosotros
mismos con quienes contamos. El mundo se moverá en una dirección ética, sólo si
queremos ir en esa dirección. Es nuestra responsabilidad y nuestro destino el que está
en juego. El pensamiento complejo es una aventura, pero también un desafío.
Edgar Morin
Hasta mediados del siglo XX, el desarrollo se producía por un solo paradigma u
ola que arrastraba hacia los cambios. El siglo XX vio nacer las tecnologías de la
información y el paradigma de la sociedad de la información, llamado por otros la
sociedad basada en el conocimiento. En el presente muchas organizaciones, siguen
haciendo énfasis en atacar a los efectos (disminuir los problemas), a lo que se une que
los esfuerzos actuales, están, únicamente, enfocando hacia la sociedad del
conocimiento. Lo que representa una preocupación, ya que casi todos los programas
(por no ser absolutos) están ajenos al nuevo paradigma de la convergencia
tecnológica y la necesidad de estar preparados para el impacto social, económico y
cultural que tendrán sobre la humanidad.


Leccion 7: Prospectiva, innovacion y comercio


En las lecciones anteriores vimos que las tendencias se refieren a la naturaleza, las
causas, la velocidad y el impacto potencial de una tendencia en desarrollo. Y los
pasos en el análisis de tendencias.
1. Encontrar las tendencias.
2. Identificar las causas que la provocan.
3. Determinar con que velocidad se desarrollara.
4. Prever las consecuencias de su impacto.
También mencionamos a los actores sociales
Los cuales se definen como grupos o conglomerados humanos que se asocian,
consciente o inconscientemente, para defender sus propios intereses desplegando el
grado de poder que cada uno posee.
Las tendencias (sociales, económicas, etc.) existen porque han sido el fruto de
estrategias desplegadas por Actores Sociales. Y si las rupturas a estas tendencias no
han logrado hacerlas cambiar su rumbo, ha sido porque el poder de estos actores
sociales no sido suficientemente fuerte para aniquilarlas.
Hay que tener en cuenta que el análisis prospectivo no solo busca detectar
grandes "rupturas" en los procesos (sean estos tecnológicos, de cambios en la
demanda o de impacto de nuevos competidores) sino ejemplificar cuáles aparecen
como los caminos más adecuados para mutaciones incrementales, es decir, pequeñas
innovaciones.
Hay que tener en cuenta que la tecnología ya no se ejercita como un proceso
autónomo ingenieril sino que depende cada vez más de las habilidades o
capacidades cognitivas y de procedimientos que provienen de la ciencia
Y como resaltan muchos autores: La prospectiva tecnológica, encargada de
focalizar la influencia de la investigación científica en la producción, la distribución y el
consumo de productos aparece como decisiva para aquellas sociedades que
pretenden salir de una economía carente de valor agregado o limitada en la
incorporación a las nuevas formas de la economía, más vinculadas al conocimiento y
a los servicios.
Muchos afirman que la nueva economía es una economía de conocimiento la
información y la tecnología se convierten en parte de productos (diseños, tarjetas de
crédito) y el capital más importante que una organización posee es el capital
intelectual (aplicable). Por lo que es necesario contar con alternativas acerca de
necesidades futuras de consumo puede implicar acceder prioritariamente como
proveedor en una cadena productiva. Interpretar necesidades futuras (o potenciales)
de clientes implica de alguna manera preparar estrategias de anticipación.
La prospectiva y la investigación de mercado
Las ofertas y las demandas de productos y servicios dependen cada vez más de
escenificaciones futuras al segmentarse crecientemente los mercados y plantearse la


necesidad de impactar en los requerimientos de consumidores cada vez más
diferenciados y exigentes. . La particularización del mercado conlleva a que la
producción masiva sea sustituida por la producción orientada a clientes. Estos últimos
se encuentran cada vez más informados y socializados en cuáles son los componentes
y las características de los procesos de producción y distribución
La reducción del espacio que se separaba a los consumidores y productores
implica prever las demandas específicas y agregadas de clientes y proveedores cada
vez más estrechamente ligados al proceso de producción. Conocer la dinámica futura
de este "acercamiento" y las orientaciones o tendencias que asumirán dichos actores
exige contar con escenarios de futuro alternativos y con capacidades "prospectivas"
para llevar a cabo reingenierías capaces de adaptarse a las especificaciones cada
vez más exclusivas.
Las herramientas prospectivas, además, pueden permitir a las pequeñas
empresas adecuarse al dinamismo de los mercados globalizados. Captar dichas
demandas supone una flexibilidad que las grandes corporaciones se ven
incapacitadas de adoptar. Detectar necesidades futuros puede brindar los beneficios
de ser los "primeros en llegar" y ampliar los mercados
La estipulación de escenarios predispone a activar determinados recursos ante la
aparición de rupturas, emergencias o cambios en las lógicas de los mercados.
Estudios prospectivos acordes a las necesidades empresarias
De las empresas insertas en la nueva economía








CIENTIFICISMO


Ya sé qué es el cientificismo: es la idea de que la única forma de adquirir el
conocimiento es a través del método científico.

A pesar de que esto resulta algo un poco obvio, hay personas que utilizan la
palabra como insulto y hasta el momento no he encontrado una refutación seria
a la afirmación de que la única producción de conocimiento real se consigue a
través de la Ciencia.

Al parecer, no soy el único. Jason Rosenhouse también le ha dedicado parte de
su tiempo:
Si pasas mucho tiempo involucrado en las discusiones ciencia / religión,
inevitablemente escucharás el término "cientificismo" ser lanzado. Por lo general,
es arrojado como un epíteto. En términos prácticos, al ser acusado de
cientificismo se suele ser acusado de no ser lo suficientemente respetuoso con la
religión.

Pero nunca he entendido del todo lo que en realidad es el cientificismo. La
definición usual es que el cientificismo es la creencia de miras estrechas de que la
ciencia es la única "forma de saber" confiable, pero esto es vago hasta que no
tengamos definiciones nítidas de "ciencia" y "forma de saber". Los filósofos han
dedicado no poca atención a tratar de determinar lo que el "conocimiento" es,
sin llegar a una conclusión definitiva. Una definición estándar es que el
conocimiento es "la creencia justificada, cierta", pero ahora estás atascado
tratando de definir lo que constituye una justificación.

En el contexto de los debates de ciencia / religión, ese pantano lingüístico de
definición parece sumamente inútil. Es demasiado abstracto. La verdadera
cuestión es muy simple. Si vas a hacer afirmaciones sobre cómo es el mundo,
entonces tienes que presentar pruebas de esa afirmación. Entonces la gente
puede decidir por sí misma si creen que tu evidencia es buena. Lo que la ciencia
(definida en un sentido razonable, de todos los días) proporciona es un conjunto
de métodos de investigación que todo el mundo considera como legítimos. En
esto difiere de la religión, que apunta a fuentes de evidencia, tales como la
experiencia personal o el contenido de los textos sagrados, que son considerados
por muchos como de muy dudosa validez.

En cualquier caso, la ocasión para discutir esto es el reciente artículo de Michael
Ruse. Fue la respuesta a este post anteriorde David Barash, que abrió de esta
manera:
Amo la ciencia, y ustedes deberían, también, aunque sólo sea porque nos ofrece
la mejor (tal vez la única) forma de realmente conocer el mundo.