6/10/2008

PROPÓSITO DE LA EPISTEMOLOGIA DE LA QUÍMICA


En la actualidad, muchos investigadores remarcan la importancia que puede tener una imagen coherente entre las posturas contemporáneas de la filosofía de la ciencia y el desarrollo de la ciencia para que las personas interesadas por esta clase de conocimiento, la comprendan y la vivencien mucho más que como un catalogo de conceptos y de rutinas de resolución de ejercicios de aplicación.

Se ha demostrado una imagen en la que se entienden las ciencias como instituciones “religiosas” poseedoras de un conocimiento “superior”, descubridora y acumuladora de conocimientos “verdaderos” e inmutables, logrados a través de un método infalible y único, puede acarrear consecuencias lamentables tales como el estancamiento o el lento progreso del desarrollo de las ciencias y de la tecnología en la sociedad. Ello debido a que este tipo de tendencias, generalmente impactan en el desarrollo de actitudes negativas hacia las ciencias, siendo my pocas las personas que se interesan por su estudio y profundización en los niveles de educación superior, Esta imagen distorsionada, además genera la ciencia que la ciencia es para unos pocos privilegiados elaborados por una casta de “sacerdotes de bata blanca”, dotados de unas cualidades únicas que le son inaccesibles a las personas del común y a las sociedades poco desarrolladas; de esta manera se generan niveles de alta deserción de estudiantes que pretenden seguir estudios que tengan que ver con las ciencias.

Lo anterior hace que sea responsabilidad de las facultades encargadas de la formación inicial y continuada de profesores de ciencias, contribuir desde la enseñanza de la epistemología de las ciencias y en general unas ciencias bien concebidas, a la desmitificación de estas imágenes distorsionada sobre la actividad científica y más bien propicien actitudes positivas hacia la ciencia y hacia su aprendizaje.

La epistemología entendida como una reflexión multidimencional sobre las ciencias, puede asumirse desde lo social (Kuhn, 1962; Elkana, 1983; Richards, 1987; Lakatos, 1978), o desde lo evolutivo (Toulmin, 1977; Holton, 1983) o desde lo complejo (Morin, 1983; Wagensberg, 1989); o desde la racionalidad moderna (Newton – Smith, 1989; Chalmers, 1989), incluso desde otras posturas. Así, la epistemología de la química no constituye una construcción racional aislada, de orden metafísico, sino que forma parte de un entramado de relaciones fluidas con las ciencias, con su enseñanza y con su aprendizaje.

HISTORIA DEL ÁTOMO Y LA TEORÍA ATÓMICA

  • Ley de Gay-Lussac para los volúmenes de reaccionantes que se combinan.

En 1808 Joseph Louis de Cavendish en donde se obtenía agua en forma de vapor a partir de la explosión de los gases hidrogeno y oxígeno y dedujo que la razón de los volúmenes que se combinaban de hidrogeno y de oxígeno era de 2:1, puesto que se combinaban 2 volúmenes de hidrógeno con uno de oxígeno para formar 2 de vapor de agua. Luego, después de realizar varias Investigaciones concluyo que los gases se combinaban en proporciones simples cuando actuaba uno sobre otro, es decir, proporciones de 1:1, 1:2, 1:3, y en ocasiones 2:3.

Dalton fue una de las personas que rechazo esta hipótesis, puesto que si la aceptaba estaría de acuerdo en que diferentes gases podían ocupar volúmenes iguales, en donde, Dalton se contradeciría a sí mismo ya que él decía que los átomos de diferentes elementos tenían diferentes tamaños, y por ende sería difícil explicar la afirmación anterior.

  • Modelo de Avogadro para los gases.

En 1811 Amadeo Avogadro propuso un modelo de gases el cual decía que:

1. Las partículas solo tienen una capa delgada de calórico y estas a su vez son muy pequeñas frente a la distancia que las separa.

2. El volumen que estas partículas ocupan es despreciable en comparación con el volumen total que ocupa la muestra.

3. Las partículas más pequeñas de los elementos gaseosos no eran simples átomos solitarios, sino que era posible considerarse que estaban formados por dos o más átomos unidos por atracción, las cuales se les denominaron moléculas.

4. Cuando se unen dos o más moléculas de diferentes gases para formar un compuesto gaseoso, puede que este compuesto se forme durante un momento y luego se rompa para dar más compuestos.

5. Bajo las mismas condiciones de temperatura y presión, volúmenes iguales de todos los gases contienen el mismo número de moléculas.

  • La teoría atómica de Dalton

John Dalton (1766-1844). Químico y físico británico. Creó una importante teoría atómica de la materia. En 1803 formuló la ley que lleva su nombre y que resume las leyes cuantitativas de la química (ley de la conservación de la masa, realizada por Lavoisier; ley de las proporciones definidas, realizada por Louis Proust; ley de las proporciones múltiples, realizada por él mismo). Su teoría se puede resumir en:

1.- Los elementos químicos están formados por partículas muy pequeñas e indivisibles llamadas átomos.
2.- Todos los átomos de un elemento químico dado son idénticos en su masa y demás propiedades.
3.- Los átomos de diferentes elementos químicos son distintos, en particular sus masas son diferentes.
4.- Los átomos son indestructibles y retienen su identidad en los cambios químicos.
5.- Los compuestos se forman cuando átomos de diferentes elementos se combinan entre sí, en una relación de números enteros sencilla, formando entidades definidas (hoy llamadas moléculas).

  • Representación de un cambio químico, según Dalton:
Esto quería decir que un átomo de oxígeno más un átomo de hidrógeno daba un átomo o molécula de agua.
La formación de agua a partir de oxígeno e hidrógeno supone la combinación de átomos de estos elementos para formar “moléculas” de agua. Dalton, equivocadamente, supuso que la molécula de agua contenía un átomo de oxígeno y otro de hidrógeno.
Dalton, además de esta última teoría creó la ley de las proporciones múltiples. Cuando los elementos se combinan en más de una proporción, y aunque los resultados de estas combinaciones son compuestos diferentes, existe una relación entre esas proporciones.
Cuando dos elementos se combinan para formar más de un compuesto, las cantidades de uno de ellos que se combina con una cantidad fija del otro están relacionadas entre sí por números enteros sencillos.
A mediados del siglo XIX, unos años después de que Dalton enunciara se teoría, se desencadenó una serie de acontecimientos que fueron introduciendo modificaciones al modelo atómico inicial.
De hecho, el mundo atómico es tan infinitamente pequeño para nosotros que resulta muy difícil su conocimiento. Nos hallamos frente a él como si estuviésemos delante de una caja cerrada que no se pudiese abrir. Para conocer su contenido solamente podríamos proceder a manipular la caja (moverla en distintas direcciones, escuchar el ruido, pesarla...) y formular un modelo de acuerdo con nuestra experiencia. Este modelo sería válido hasta que nuevas experiencias nos indujeran a cambiarlo por otro. De la misma manera se ha ido construyendo el modelo atómico actual; de Dalton hasta nuestros días se han ido sucediendo diferentes experiencias que han llevado a la formulación de una serie de modelos invalidados sucesivamente a la luz de nuevos acontecimientos.

  • El modelo atómico de Thomson

Thomson, sir Joseph John (1856-1940). Físico británico. Según el modelo de Thomson el átomo consistía en una esfera uniforme de materia cargada positivamente en la que se hallaban incrustados los electrones de un modo parecido a como lo están las semillas en una sandía. Este sencillo modelo explicaba el hecho de que la materia fuese eléctricamente neutra, pues en los átomos de Thomson la carga positiva era neutralizada por la negativa. Además los electrones podrían ser arrancados de la esfera si la energía en juego era suficientemente importante como sucedía en los tubos de descarga.
J. J. Thomson demostró en 1897 que estos rayos se desviaban también en un campo eléctrico y eran atraídos por el polo positivo, lo que probaba que eran cargas eléctricas negativas. Calculó también la relación entre la carga y la masa de estas partículas.
Para este cálculo realizó un experimento: hizo pasar un haz de rayos catódicos por un campo eléctrico y uno magnético.
Cada uno de estos campos, actuando aisladamente, desviaba el haz de rayos en sentidos opuestos. Si se dejaba fijo el campo eléctrico, el campo magnético podía variarse hasta conseguir que el haz de rayos siguiera la trayectoria horizontal original; en este momento las fuerzas eléctricas y magnéticas eran iguales y, por ser de sentido contrario se anulaban.
El segundo paso consistía en eliminar el campo magnético y medir la desviación sufrida por el haz debido al campo eléctrico. Resulta que los rayos catódicos tienen una relación carga a masa más de 1.000 veces superior a la de cualquier ion.
Esta constatación llevó a Thomson a suponer que las partículas que forman los rayos catódicos no eran átomos cargados sino fragmentos de átomos, es decir, partículas subatómicas a las que llamó electrones.
Las placas se colocan dentro de un tubo de vidrio cerrado, al que se le extrae el aire, y se introduce un gas a presión reducida.

  • El modelo de Rutherford

Sir Ernest Rutherford (1871-1937), famoso hombre de ciencia inglés que obtuvo el premio Nobel de química en 1919, realizó en 1911 una experiencia que supuso en paso adelante muy importante en el conocimiento del átomo.
La experiencia de Rutherford consistió en bombardear con partículas alfa una finísima lámina de oro. Las partículas alfa atravesaban la lámina de oro y eran recogidas sobre una pantalla de sulfuro de cinc.

La importancia del experimento estuvo en que mientras la mayoría de partículas atravesaban la lámina sin desviarse o siendo desviadas solamente en pequeños ángulos, unas cuantas partículas eran dispersadas a ángulos grandes hasta 180º.
El hecho de que sólo unas pocas radiaciones sufriesen desviaciones hizo suponer que las cargas positivas que las desviaban estaban concentradas dentro de los átomos ocupando un espacio muy pequeño en comparación a todo el tamaño atómico; esta parte del átomo con electricidad positiva fue llamado núcleo.
Rutherford poseía información sobre el tamaño, masa y carga del núcleo, pero no tenía información alguna acerca de la distribución o posición de los electrones.
En el modelo de Rutherford, los electrones se movían alrededor del núcleo como los planetas alrededor del sol. Los electrones no caían en el núcleo, ya que la fuerza de atracción electrostática era contrarrestada por la tendencia del electrón a continuar moviéndose en línea recta. Este modelo fue satisfactorio hasta que se observó que estaba en contradicción con una información ya conocida en aquel momento: de acuerdo con las leyes del electromagnetismo, un electrón o todo objeto eléctricamente cargado que es acelerado o cuya dirección lineal es modificada, emite o absorbe radiación electromagnética.
El electrón del átomo de Rurherford modificaba su dirección lineal continuamente, ya que seguía una trayectoria circular. Por lo tanto, debería emitir radiación electromagnética y esta radiación causaría la disminución de la energía del electrón, que en consecuencia debería describir una trayectoria en espiral hasta caer en el núcleo. El modelo de Rutherford fue sustituido por el de Bohr unos años más tarde.

  • El modelo atómico de Bohr

Niels Bohr (1885-1962 fue un físico danés que aplicó por primera vez la hipótesis cuántica a la estructura atómica, a la vez que buscó una explicación a los espectros discontinuos de la luz emitida por los elementos gaseosos. Todo ello llevó a formular un nuevo modelo de la estructura electrónica de los átomos que superaba las dificultades del átomo de Rutherford.
Este modelo implicaba los siguientes postulados:
1.- El electrón tenía ciertos estados definidos estacionarios de movimiento (niveles de energía) que le eran permitidos; cada uno de estos estados estacionarios tenía una energía fija y definida.
2.- Cuando un electrón estaba en uno de estos estados no irradiaba pero cuando cambiaba de estado absorbía o desprendía energía.
3.- En cualquiera de estos estados, el electrón se movía siguiendo una órbita circular alrededor del núcleo.
4.- Los estados de movimiento electrónico permitidos eran aquellos en los cuales el momento angular del electrón (m · v · r ) era un múltiplo entero de h/2 · 3.14.
àVemos pues que Bohr aplicaba la hipótesis cuántica por Planck en 1900.

La teoría ondulatoria electromagnética de la luz era satisfactoria en cuanto explicaba algunos fenómenos ópticos tales como la difracción o la dispersión, pero no explicaba otros fenómenos tales como la irradicación de un cuerpo sólido caliente. Planck resolvió el problema suponiendo que un sistema mecánico no podía tener cualquier valor de la energía, sino solamente ciertos valores.
Así, en un cuerpo sólido caliente que irradia energía, Planck consideró que una onda electromagnética de frecuencia era emitida por un grupo de átomos que circulaba con la misma frecuencia.
Aplicando esta hipótesis a la estructura electrónica de los átomos se resolvía la dificultad que presentaba el átomo de Rutherford. El electrón, al girar alrededor del núcleo, no iba perdiendo la energía, sino que se situaba en unos estados estacionarios de movimiento que tenían una energía fija. Un electrón sólo perdía o ganaba energía cuando saltaba de un estado (nivel) a otro.
Por otro lado, el modelo de Bohr suponía una explicación de los espectros discontinuos de los gases, en particular del más sencillo de todos, el hidrógeno. Una raya de un espectro correspondía a una radiación de una determinada frecuencia.
¿Por qué un elemento emite solamente cierta frecuencia ? Veamos la respuesta:
En condiciones normales los electrones de un átomo o ion se sitúan en los niveles de más baja energía. Cuando un átomo recibe suficiente energía, es posible que un electrón salte a un nivel superior a aquel en que se halla. Este proceso se llama excitación. Un electrón excitado se halla en un estado inestable y desciende a un nivel inferior, emitiendo una radiación cuya energía será igual a la diferencia de la que tienen los dos niveles.

La energía del electrón en el átomo es negativa porque es menor que la energía del electrón libre.
Al aplicar la formula de Bohr a otros átomos se obtuvieron resultados satisfactorios, al coincidir el pronóstico con el resultado experimental de los espectros de estos átomos.
El modelo de Thomson presentaba un átomo estático y macizo. Las cargas positivas y negativas estaban en reposo neutralizándose mutuamente. Los electrones estaban incrustados en una masa positiva como las pasas en un pastel de frutas. El átomo de Rutherford era dinámico y hueco, pero de acuerdo con las leyes de la física clásica inestable. El modelo de Bohr era análogo al de Rutherford, pero conseguía salvar la inestabilidad recurriendo a la noción de cuantificación y junto con ella a la idea de que la física de los átomos debía ser diferente de la física clásica.

  • Propiedades del Átomo
Atendiendo a las características estructurales del átomo las propiedades de este varían. Así por ejemplo los átomos de que tienen el mismo número de electrones de valencia que poseen distintos números atómicos poseen características similares.
Los átomos están formados por un núcleo que posee una serie de partículas subatómicas. Alrededor del núcleo se hallan en diferentes órbitas los electrones.
Las partículas subatómicas de las que se compone el núcleo son los protones y los neutrones. Los átomos son eléctricamente neutros. Luego, si contienen electrones, cargados negativamente, deben contener también otras partículas con carga positiva que corresponden a la carga de aquellos. Estas partículas estables con signo positivo se las llamó protón. Su masa es igual a 1,6710-27 kg.
Con estas dos partículas, se intentó construir todos los átomos conocidos, pero no pudo ser así porque faltaba unas de las partículas elementales del núcleo que fue descubierto por J. Chadwick en 1932 y que se llamó neutrón. Esta partícula era de carga nula y su masa es ligerísimamente superior a la del protón (1,6748210-27kg.).

Situados en órbitas alrededor del núcleo se hallan los electrones, partículas estables de carga eléctrica negativa y con una masa igual a 9,1110-31kg. El modelo de Bohr explica el espectro del átomo de hidrógeno, pero no los de átomos mayores. Para explicar estos y otros fenómenos ha surgido la mecánica cuántica. Aquí como en el modelo de Bohr, un electrón atómico sólo puede ocupar determinados niveles de energía. Ahora bien cada nivel de energía posee uno o más subniveles de energía.
El primer nivel de energía principal, n =1, posee un subnivel; el segundo posee dos, el tercero tres y así sucesivamente.
En el modelo de Bohr, los electrones giran en torno al núcleo siguiendo órbitas circulares, pero hoy sabemos que un electrón en un subnivel de energía dado se mueve aunque la mayor parte del tiempo se encuentra en una región del espacio más o menos definida, llamada orbital.
è Los orbitales se nombran igual que su subnivel de energía correspondiente.
La energía radiante, o radiación electromagnética, que el Sol llega a la Tierra a través del espacio, en forma de ondas. El resultado de la separación de los componentes de distinta longitud de onda de la luz o de otra radiación forman el espectro electromagnético.
Las radiaciones electromagnéticas se dividen en distintos tipos (rayos gamma, rayos X, ultravioleta, etc. según el valor de lo que se denomina “longitud de onda”, que es la distancia entre dos crestas consecutivas de la onda.
Cuando un haz de luz formado por rayos de distinta frecuencia atraviesa un prisma óptico, se dispersan en las diferentes radiaciones que se recogen en una pantalla en forma de espectro. El espectro puede ser estudiado en laboratorios gracias al espectrógrafo, un aparato que consta fundamentalmente de una rendija por la que entra el haz de luz, una lente, un prisma de dispersión y una placa fotográfica, estos se empezaron a utilizar a partir de 1859.
Los espectros pueden ser continuos o discontinuos. Los espectros continuos son los que abarca toda la frecuencia de las radiaciones que tienen pasando de una a otra gradualmente, sin saltos. La luz blanca tiene un espectro continuo, formado por siete colores (rojo, anaranjado, amarillo, verde, azul, añil y el violeta) y cada uno de ellos corresponde a radiaciones de una frecuencia determinada; cuando termina un color empieza otro, sin que, entre ellos, hayan ninguna zona oscura. En cambio, los elementos gaseosos de un tubo de descarga emite una luz que posee un espectro discontinuo, es decir, sólo contiene determinadas radiaciones, que aparecen en forma de rayas entre las cuales hay una zona oscura.
Cuando se descubrieron los rayos X y se observó la fluorescencia que estos rayos producían en las paredes del tubo de vidrio, Becquerel se dedicó a investigar si la fluorescencia iba acompañada siempre de radiaciones. Obtuvo los primeros resultados en 1896 al comprobar que el sulfato de uranilo y potasio emitían unas radiaciones que impresionaban las placas fotográficas, atravesaban cuerpos opacos e ionizaban. El aire. La emisión de estas radiaciones no implicaba que el cuerpo estuviera expuesto a la luz, pues también se producían en la oscuridad.
Además los espectros también pueden ser el espectro de masas (el que resulta de la separación de un elemento químico en sus distintos isótopos.
El espectro de la luz blanca está constituido por una sucesión de colores (colores del espectro), cada uno de los cuales corresponde a una longitud de onda bien precisa.
Un espectro puede ser: de emisión, cuando se obtiene a partir de la radiación directamente emitida por un cuerpo; de absorción, cuando es el resultante del paso de la radiación a través de un determinado absorbente.
Se distingue también entre: discretos, o de rayas, constituidos por una serie de líneas aisladas; continuos, que contienen todas las longitudes de onda entre dos límites, y de bandas, constituidos por una serie de zonas continuas separadas por espacios oscuros.
Los átomos producen espectros de líneas, las moléculas de bandas y los sólidos y líquidos espectros continuos.

  • La química después de Avogadro: concepto de valencia

En 1858 Estanislao Cannizzaro hizo resurgir la teoría de Avogadro, cuando la química atravesaba un momento de desaliento por las contradicciones que se mantenían en la explicación de la teoría atómica; mediante sus propios experimentos este químico italiano demostró que la teoría de Avogadro proporcionaba una base lógica para el desarrollo de la química, obteniendo como resultado el desarrollo y la aclaración de muchos de los conceptos fundamentales en los que se apoya la química moderna, lo que finalizo la revolución química.

Después de la teoría atómica de Dalton que, aunque ofrecía una interpretación sobre las proporciones definidas, es decir, como los átomos de un elemento se combinan con otros átomos de un elemento diferente, para formar una determinada molécula, surgieron diversas preguntas tales como ¿Por qué los átomos se combinaban de una manera determinada? o ¿Por qué razón los átomos de H y CI forman siempre la molécula de HCI y no HCl3, H5Cl2 o cualquier otra molécula?, así mismo con el C y el O. Para dar respuesta a tales interrogantes se suponía a los átomos con ganchos para explicar la existencia de moléculas como HCI o H2O: el H con un gancho, el CI con uno y el O con dos y solo cuando los ganchos de los respectivos elementos estuvieran todos ocupados se formaba una molécula estable, de esta manera era imposible la existencia de una molécula como H2O3 ya que el O quedaba con un gancho sin ocupar y no sería estable; pero aun así era un poco incoherente, dicha teoría, ya que por ejemplo para el CO, dos de los cuatro ganchos del C quedaban sin ocupar, A pesar de que este método resultaba un poco incompleto y peligroso tuvo un gran valor formal, mientras no se sabía aun, que las combinaciones de los átomos se dan a partir de sus propias estructuras, para dar respuestas a dicho interrogante. Aparte, dicho método condujo al concepto de valencia describiéndolo como el número de ganchos que un átomo puede disponer para asociarse químicamente con otros átomos o con grupos estables de átomos.

  • Pesos moleculares

El método más práctico en la obtención de las formulas moleculares es por medio de los pesos relativos los cuales se hallan experimentalmente; una gran ayuda en la búsqueda de las formulas moleculares en gases. Tales pesos relativos son obtenidos dividiendo el peso molecular del elemento en el número de átomos que encontramos en este, conformando así tres importantes factores:
1. Los pesos reaccionantes de las sustancias
2. Los pesos atómicos y moleculares de la sustancia
3. La formula de la reacción

En donde si conocemos dos de estos factores se puede deducir el tercero. Finalmente se concibe el concepto de mol el cual simplifica los cálculos en donde una mol significa que tenemos X gramos de ella y que esta masa es al peso molecular o atómico, en esta cantidad X de masa siempre encontraremos el mismo número de moléculas, átomos o partículas elementales, el cual es de 6.02 x 1023 conocido como número de Avogadro.

PAPEL DE LA HISTORIA Y LA EPISTEMOLOGÍA DE LA CIENCIA EN LA DIDÁCTICA CONTEMPORÁNEA DE LA CIENCIA


Los problemas que desde siempre se han encontrado tanto en la enseñanza de la ciencia como en el aprendizaje de la misma ha llevado a un común acuerdo de tratarlos y analizarlos a profundidad, pues es necesario cambiar la forma como profesores y estudiantes adquieren el conocimiento científico, ya que no tienen en cuenta cómo en realidad se concibió este conocimiento; con esto queremos decir que la didáctica empleada para el aprendizaje de una ciencia se ha basado en un proceso empírico y descriptivo, en donde el docente se limita a transmitir cierta cantidad de conocimientos, que posteriormente serán almacenados por los alumnos, y que sin embargo el docente no se interesa por mostrar la ciencia como un hecho histórico debido, tal vez, a que este no tiene los suficientes conocimientos sobre la epistemología e historia de la misma.

Varias son las teorías o corrientes epistemológicas que han surgido y que intentaron aportar algunos significados que ayudasen a entender el desarrollo de la actividad científica planteando hasta el momento una metodología que sea a óptima en el aprendizaje de las ciencias; refiriéndonos a algunas como el empirismo, que posteriormente dio paso al positivismo lógico, corrientes que han sido de gran importancia en la historia, pues por un lado el positivismo "introdujo el conocido método científico y por otro el empirismo ha sido la base del conocimiento para muchas personas.

No obstante, en el transcurso del tiempo son nuevas teorías las que se contraponen a las anteriormente mencionadas, entre ellas la más sobresalientes es el constructivismo contemporáneo el cual sostiene que la intuición y la observación son dependientes de la teoría de principios fundamentales y asume que para cada núcleo problémico puede haber un método que se acomode a las exigencias y a la naturaleza del mismo, teniendo en cuenta el contexto social en donde surja la problemática. También se generaron nuevos modelos alternativos de enseñanza y aprendizaje de las ciencias los cuales nos ayudan a entender cómo se construye la teoría científica, que es resultado de proporcionar explicaciones a ciertos cuestionamientos en determinado momento histórico, y entender que la actividad científica tiene el propósito de relacionar las nuevas ideas o los nuevos paradigmas que nacen con el transcurrir y que pueden contribuir o complementar las concepciones anteriores o simplemente desmitificarlas.

Teniendo en cuenta lo anterior, es necesario adoptar estas ideas contemporáneas en los currículos científicos, para que así los estudiantes no vean las ciencias como exactas y perfectas, sino como un arduo trabajo que ha sido elaborado a través de la historia por diversos personajes, reconocidos o no, los cuales tuvieron errores y equivocaciones en el procesos de participación de la construcción de la ciencia, ya que el conocimiento está en un continuo proceso de desmitificación, pues día a día se llegan a hallazgos que modifican una teoría expuesta, con lo cual se puede deducir que las ciencias no son definitivas como se ha hecho ver por muchos años, sino que estas tienen unas verdades relativas, pues únicamente se descubren nuevos conocimientos valederos para una época y un momento histórico determinado.

6/09/2008

SOFTWARE EDUCATIVO QUIMICA

GENERAL CHEMESTRY INTERACTIVE 3.0
authored By.
WILLIAM J. VISING. Universidad of Massachusetts
JOHN C. KOTZ State University of new york
PATRICK A. HARMAN, information and media desing
CAChe Group. fujitsu
Beavereton.org
prodeuced in the USA
ISBN 0-030-35403-X
este software de quimica es una edicion didactica de diferentes temas relacionados con la quimica, en el podemos encontrar por capitulos la quimica universitaria y aplicada.
en el podemos encontrar los chapters enumerados de la siguiente manera...
  1. introducction
  2. the nature of chemistry
  3. matter and measurement
  4. atoms and elements
  5. molecules, ions and compounds.
  6. chemical equations and stoichometry
  7. reactions and aqueus solutions
  8. principe of reactivy
  9. energy and chemical reactions
  10. atomic structure
  11. atomic electron configuration and chemical periodicity
  12. fundamentals concepts

a parte de la gran variedad de contenido podemos interactuar de una forma inusual en sus diferentes aplicaciones, como lo son:

  • periodic table: la tabla periodica con todas las especificaciones y caracteristicas de cada elemento.
  • molar mass calculator: de una forma muy rapida podemos averiguar el peso de compuestos o elementos.
  • molarity calculator: aqui podemos hallar la cantidad necesaria de un compuesto o elemento para tener una molaridad exacta en una cantidad de disolvente dado.
  • moleculars models: podemos crear y observar diferentes modelos moleculares de compuests organicos e inorganicos.
  • protting tool: una aplicacion en la que podemos crear graficas relacionadas con cualquier calculo quimico, log, ln, absorvancia.. etc

en este blog debatiremos acerca de el sofware anterior y daremos nuestras respectivas opiniones.

LUIS ARMANDO CONTRERAS JORDAN xD

EL PARACELSISMO Y LA IATROQUIMICA


La principal rebelión total contra las ideas tradicionales en la Europa del Renacimiento fue la del médico Theophrastus Bombast von Hohenheim, llamado Paracelso, que vivió durante la primera mitad del siglo XVI. Basándose principalmente en las doctrinas alquimistas, desplazó a un segundo plano la teoría de los cuatro elementos y también la de los cuatro humores orgánicos. Formuló una visión dinámica del universo, del cuerpo humano y de sus enfermedades fundamentada en las tres "sustancias" alquímicas ("mercurius", "sulphur" y "sal") y en el "arqueo", fuerza vital específica que las ordenaba en el cuerpo del hombre.


El movimiento paracelsista

• Mientras vivió Paracelso y durante las dos décadas que siguieron a su muerte se publicaron muy escasas obras suyas y sus teorías alcanzaron reducida difusión. En torno a 1570 se inició en el mundo de lengua alemana un vigoroso movimiento paracelsista que muy pronto se extendió a toda Europa. La obras de Paracelso fueron editadas a partir de entonces numerosas veces en el original alemán y en otros idiomas. Edición en latín (1659) de textos de Gerhard Dorn, una de las principales cabezas del movimiento paracelsista.

El eclecticismo: Libavius

• Entre los seguidores de una postura intermedia entre los paracelsistas y los partidarios de las ideas tradicionales sobresalió Andreas Libavius, que insistió en el trabajo de laboratorio y publicó un influyente tratado sistemático (1597). De éste proceden los grabados que representan el edificio y el plano de un "laboratorio ideal". Hay en él instalaciones destinadas a destilación (hh, ff), análisis cuantitativo (ee) y cristalización (O), así como para alquimia (H) y preparación de medicamentos químicos.

La segunda generación de paracelsistas: Helmont

• La gran figura de la segunda generación de paracelsistas, que desarrolló su actividad durante la segunda mitad del siglo XVII, fue Johann Baptist van Helmont. Realizó, entre otras, importantes investigaciones sobre los gases y las bases, creando el término "gas" y denominando "álcalis" a las lejías.

La iatroquímica

• El sistema iatroquímico, vigente durante la segunda mitad del siglo XVII, asumió las interpretaciones paracelsistas, pero eliminando sus elementos panvitalistas y metafísicos, que sustituyó por el mecanicismo, el atomismo y el método científico inductivo. Palestra pharmacéutica chymico-galénica (1706) del iatroquímico español Félix Palacios, abierta por una de sus láminas sobre instrumentos de laboratorio y reproducción de su tabla de símbolos.

GINA PAOLA BAUTISTA DUEÑAS
LA QUIMICA DEL SIGLO 18



La química del siglo 18 se basó en interacción entre las substancias y la formación de nuevas substancias desde un punto de vista totalmente científico. Tomó mucho de sus problemas y puntos de vista de la óptica, mecánica de la luz y nociones de química médica. En esa época, aproximadamente, otra observación hizo avanzar la comprensión de la química. Al estudiarse cada vez más productos químicos, los químicos observaron que ciertas sustancias combinaban más fácilmente o tenían más afinidad con un determinado producto químico que otras. Se prepararon tablas que mostraban las afinidades relativas al mezclar diferentes productos. El uso de estas tablas hizo posible predecir muchas reacciones químicas antes de experimentarlas en el laboratorio.

Todos esos avances condujeron en el siglo XVIII al descubrimiento de nuevos metales y sus compuestos y reacciones. Comenzaron a desarrollarse m&ciones. Comenzaron a desarrollarse métodos analíticos cualitativos y cuantitativos, dando origen a la química analítica. Sin embargo, mientras existiera la creencia de que los gases sólo desempeñaban un papel físico, no podía reconocerse todo el alcance de la química. El estudio químico de los gases, generalmente llamados 'aires' empezó a adquirir importancia después de que el fisiólogo británico Stephen Hales desarrollara la cubeta o cuba neumática para recoger y medir el volumen de los gases liberados en un sistema cerrado; los gases eran recogidos sobre el agua tras ser emitidos al calentar diversos sólidos. La cuba neumática se convirtió en un mecanismo valioso para recoger y estudiar gases no contaminados por el aire ordinario. El estudio de los gases avanzó rápidamente y se alcanzó un nuevo nivel de comprensión de los distintos gases.

La interpretación inicial del papel de los gases en la química se produjo en Edimburgo (Escocia) en 1756, cuando Joseph Black publicó sus estudios sobre las reacciones de los carbonatos de magnesio y de calcio. Al calentarlos, estos compuestos desprendían un gas y dejaban un residuo de lo que Black llamaba magneiduo de lo que Black llamaba magnesia calcinada o cal (los óxidos). Esta última reaccionaba con el 'álcali' (carbonato de sodio) regenerando las sales originales. Así el gas dióxido de carbono, que Black denominaba aire fijo, tomaba parte en las reacciones químicas (estaba "fijo", según sus palabras). La idea de que un gas no podía entrar en una reacción química fue desechada, y pronto empezaron a reconocerse nuevos gases como sustancias distintas.

En la década siguiente, el físico británico Henry Cavendish aisló el 'aire inflamable' (hidrógeno). También introdujo el uso del mercurio en lugar del agua como el líquido sobre el que se recogían los gases, posibilitando la recogida de los gases solubles en agua. Esta variante fue utilizada con frecuencia por el químico y teólogo británico Joseph Priestley, quien recogió y estudió casi una docena de gases nuevos. El descubrimiento más importante de Priestley fue el oxígeno; pronto se dio cuenta de que este gas era el componente del aire ordinario responsable de la combustión, y que hacía posible la respiración animal. Sin embargo, su razonamiento fue que las sustancias combustibles ardían en&eac combustibles ardían enérgicamente y los metales formaban escorias con más facilidad en este gas porque el gas no contenía flogisto. Por tanto, el gas aceptaba el flogisto presente en el combustible o el metal más fácilmente que el aire ordinario que ya contenía parte de flogisto. A este nuevo gas lo llamó 'aire deflogistizado' y defendió su teoría hasta el final de sus días.

Mientras tanto, la química había hecho grandes progresos en Francia, particularmente en el laboratorio de Lavoisier. A éste le preocupaba el hecho de que los metales ganaban peso al calentarlos en presencia de aire, cuando se suponía que estaban perdiendo flogisto. En 1774 Priestley visitó Francia y le comentó a Lavoisier su descubrimiento del aire deflogistizado. Lavoisier entendió rápidamente el significado de esta sustancia, y este hecho abrió el camino para la revolución química que estableció la química moderna. Lavoisier lo llamó 'oxígeno', que significa 'generador de ácidos.

GINA PAOLA BAUTISTA DUEÑAS

DEFECTOS DE LA LEY PERIODICA

DEFECTOS DE LA LEY PERIODICA
La colocación del hidrógeno en la tabla ha dado lugar a muchas discusiones,"al ser univalente se asemeja a los metales alcalinos" (D. Mendeléiev) "o a los halógenos" (O. Masson). En general el hidrógeno es electropositivo como todos los metales alcalinos, pero no se considera un metal, es desplazado de los compuestos orgánicos por lo halógenos, y forma hidruros con los metales no muy diferentes de las sales hidrogenadas, parece ser un elemento errante y completamente fuera de lugar en el plan general y ocupa una posición única, como si fuera, la piedra angular de la estructura (Algunos han propuesto que es un miembro de una serie de elementos independientes todavía desconocidos).
Otra dificultad es la ubicación de las entonces llamadas tierras raras, algunas están ubicadas en base a sus pesos atómicos (Sc -45,10- e Y -88,92-), y otras relegadas a una clase propia.Un estudio de B. Brauner consideró que debían agruparse como los asteroides de un sistema planetario (teoría asteroide de las tierras raras), de acuerdo con este punto de vista a excepción de Sc e Y, se colocaron en el sexto y séptimo período.
"Si las propiedades de los elementos son dependientes de los pesos atómicos, la existencia de dos elementos con propiedades diferentes y aproximadamente los mismos pesos atómicos debe ser imposible" (D. Mendeléiev).
De aquí nace la dificultad que se presente con los elementos Co y Ni, Ru y Rh, etc., las propiedades de estos elementos no hubieran sido sospechadas nunca en base a la ley periódica.Algunos elementos están ubicados en la tabla en base a sus pesos atómicos, en oposición a sus propiedades, como es el caso de Cu, Ag y Au, la trivalencia del oro parece ser incompatible con la valencia de sus compañeros, aunque en su posición inicial la serie: PtCl4; AuCl3; HgCl2; TlCl es sugestiva. El Tl es muy parecido al Pb, pero el sulfato y algunas otras sales son completamente diferentes a las sales de plomo.
Otros elementos que parecen ser químicamente semejantes están separados en la tabla, por ejemplo, el Cu y el Hg, el Ba y el Pb, etc. la posición de dichos elementos en la tabla no da ningún indicio de esos caracteres, sin embargo, podría argumentarse que presentan muchas diferencias esenciales, así, las propiedades del Hg y Cu, y las propiedades de sus cloruros y sulfatos muestran grandes contrastes, también es muy diferente la estabilidad de los cloruros cuproso y mercurioso. Los peróxidos de Pb y Ba parecen tener constitución distinta. El sesquióxido de talio (Ta2O3, corresponde a otros sesquióxidos - más estables - del grupo, pero hay muchos puntos importantes de semejanza entre el Tl y los metales alcalinos y entre la Ag y el Pb.
GINA PAOLA BAUTISTA DUEÑAS

6/08/2008

LA SOCIOLOGÍA DE EDUCACIÓN NO ES BASTANTE

Elmer Eason, LA SOCIOLOGÍA DE EDUCACIÓN NO ES BASTANTE,

Journal of Education Sociology, Vol. 35, No. 3. (Nov., 1961), pp. 141 - 143

RESUMEN GLOBAL

TESIS

Los cursos en los aspectos sociales de educación para el estudiante y comienzo de estudiante de grado de educación no deberían ser limitados con el contenido de la sociología de educación.

ARGUMENTOS

  • La sociología de educación es una ciencia empírica - una ciencia empírica que da vuelta a instituciones educativas y procesos como una fuente de datos, y a otras ciencias sociales para los recursos la cual ayuda a hacer inteligible aquellos aspectos de educación que esta investiga.
  • Materiales empíricos relevantes al entendimiento de los aspectos sociales de educación deben ser encontrados no sólo en la sociología de educación, sino también en la sociología general, la antropología, la psicología social, una ciencia emergente de valores, y otros campos relacionados.
  • La justificación de política y práctica está basada no sólo en conclusiones empíricas, sino también en principios normativos.
  • Cuando problemas sociales consisten, en parte, de clarificación y justificación de generalizaciones normativas, el educador debe dar vuelta a recursos además de aquellos proveídos por la sociología de educación y ciencias sociales.
  • Para el profesor y el administrador de la escuela, el estudiante y comenzando la instrucción de graduado en los aspectos sociales de la educación no debería ser restringido a las dimensiones científicas de descripción, predicción, y la explicación. Tal instrucción también debería incluir las dimensiones filosóficas de justificación y significado.
  • La apreciación de política y práctica puede ser hecha inteligentemente sólo sobre la base de la claridad de significado, examinada generalizaciones normativas, y el conocimiento garantizado. Aunque el foco estuviera sobre la política y la práctica, la instrucción incluiría el estudio sistemático de materiales empíricos, discusiones disciplinadas en cuanto a valores y normas, y esfuerzos explícitos en la clarificación o el trazado para descansar segura de los clichés, tópicos, y shibboleths o nuestro comercio.

EXAMEN CRÍTICO

El programa de sociología de educación puede conducir a una ciencia que abarca todas las explicaciones de fenómenos sociales relevantes a la educación, pero si esta ciencia crea tareas que debieran ser ejercidas por el profesor o por los administradores de la educación, estaría simplificando su conocimiento. Los educadores, profesores y administradores hoy preguntan quién y quien debería controlar el instruir ó que funciones ellos deberían cumplir, pero estas respuestas solo pueden ser contestadas no solo con la sociología de la educación pues independientemente de su punto de estudio, está íntimamente relacionado con otras ciencias o disciplinas como la filosofía, antropología y otras. De igual forma es necesario ayudar a vencer algunos desórdenes intelectuales perpetuados por expresiones que pertenecen a los aspectos sociales de educación, de nuevo el educador debe dar vuelta a otros recursos que aquellos que son proveídos por la sociología de educación y otras ciencias sociales.

Y es así como un modo de organizar la instrucción para incluir todos los aspectos anteriormente nombrados es enfocando el estudio, al menos en parte, sobre la apreciación de política educativa y práctica y sobre la apreciación de más amplia política social y práctica que afecta la educación, y así aunque el foco estuviera sobre la política y la practica la instrucción incluiría el estudio empírico, discusiones en cuanto a valores y la clarificación de formas de expresión.

CONCLUSIONES

El estudio sociológico indudablemente es un arma valiosa para la enseñanza y aprendizaje de preguntas sociales y educativas, pero éste no cubre con todas las necesidades empíricas y normativas que los estudiantes requieren, y es así pues como el uso de la sociología general, la antropología, la psicología social, una ciencia emergente de valores, y otros campos relacionados pueden aportar conocimientos importantes en la explicación de las preguntas de política y práctica de la sociología de educación.

MARIA FERNANDA CAMACHO

20061150013

RACIONALISMO V/S RELATIVISMO

¿Para una ciencia como la química, que corriente epistemológica entre el relativismo y el racionalismo le aporta más?

Primero empezaré viendo la química desde ambas corrientes por aparte, desde la visión del relativismo la química vendría siendo un conocimiento supuesto acerca de la materia ya que es una ciencia creada por los químicos, por ende, esta influenciada por los contextos que poseían sus autores, es decir la cultura, la nacionalidad, el desarrollo y crítica de cada uno como persona.

Desde el racionalismo la química sería un conocimiento verídico en la mayoría de sus postulados que están demostrados matemáticamente y dudosos en los postulados teóricos y supuestos sin “razón”, sin embargo, la química muestra una tendencia racionalista ya que en esta influyen fuertemente las ciencias numéricas y las teorías postuladas aprobadas no son simples, pues han pasado por largos procesos de investigación y racionamiento, aunque esta corriente no es muy amiga de la experiencia.

La química es una ciencia experimental, en la que con muy pocas probabilidades se ve influenciada por el pensamiento de los autores de los postulados e hipótesis puestos en común por la comunidad, de ser así sería apenas un área del conocimiento que intentaría explicar la composición de la materia, incluso creo que si se viera influenciada nunca se pondría de acuerdo la población humana para explicar desde su punto de vista la composición de la materia.

Es cierto también que las ciencias lógicas y numéricas tienen gran influencia en la química como lo menciona el racionalismo, aunque no siempre se expliquen los fenómenos por estas ramas, sin embargo, esta corriente es la que más aportes ha logrado en la química hasta convertirla en ciencia.

Pero que pasa con la química si siguiera estrictamente la corriente racionalista, quizá tampoco hubiese llegado donde esta, pues el racionalismo se opone abiertamente a la experiencia y esa es la base fundamental de la química que es una ciencia que comprueba lo que demuestra matemáticamente, la química es un gran complemento de racionalismo y empirismo paradójicamente.

Por último creo que la corriente que es más útil o que más aporta para la química de estas dos tratadas anteriormente es el racionalismo, aunque ninguna complementa totalmente los requerimientos de la química como ciencia, que depende de indagaciones personales, experiencia y demostraciones lógico-matemáticas.
Juan Carlos León

PROGRAMAS DE INVESTIGACION

¿Son los programas de investigación de Lakatos una base sólida para la construcción del conocimiento científico?

Con los movimientos o corrientes epistemológicas que han tratado de dar un orden a la construcción del conocimiento científico hasta ahora, uno de los que más acogida tuvo fue el propuesto por Lakatos, quien no estando de acuerdo con otros modelos para él extremistas construyó los denominados programas de investigación que son consecutivos y tienen más aspectos a tener en cuenta para la construcción de una teoría científica.

En los programas de investigación es necesario definir cuál es el núcleo problémico a tratar para desarrollar una teoría, y también fijar los parámetros en los que se va a trabajar con esta, además involucra una serie de hipótesis que forman un cinturón protector que resiste las contradicciones a las que se someta la teoría mientras está en construcción, el éxito de la teoría depende de los avances positivos que obtenga y no por las degeneraciones que provoque.

Me parece que de esta manera las teorías científicas en construcción pueden desarrollar un proceso más exitoso porque no son rechazadas tajantemente al tener contradicciones que puedan llegar a parecer reales, todo debe ser un proceso en el que si las teoría se degenera con más argumentos puede llegar a ser reemplazada por los postulados de la contradicción los cuales han vencido al cinturón protector de la teoría. Igualmente si la teoría tiene un proceso constructivo, es porque a ella se adhieren hipótesis que dan razón a la teoría central sin dar explicación a posibles contradicciones.

Cuando se ha comprobado que una teoría esta teniendo un proceso degenerativo no es totalmente excluida, por el contrario se tiene en cuenta para mejorar el proceso constructivo de la teoría entrante, en la construcción se manejan unas guías denominadas heurísticas que pueden ser positivas o negativas, en las primeras se lleva con detenimiento el procedimiento y en las segundas se evitan las desviaciones del tema, en el proceso el tema central debe ser intocable.

Por último, este método investigativo para hacer ciencia es una verdadera base para la construcción sólida de la ciencia ya que tiene en cuenta muchos más aspectos, por ejemplo tener en cuenta las contradicciones para asegurar un verdadero desarrollo de la teoría científica, que otras formas como el inductivismo o falsacionismo rechazan perjudicando a la ciencia en su avance.
Juan Carlos León

INDUCTIVISMO

¿Es posible aplicar el método del inductivismo a una ciencia en construcción permanente como la química?

El inductivismo ha sido clasificado como un método científico de gran importancia para el desarrollo de la ciencia a lo largo de la historia, debido a que su principal herramienta es la observación de la cual se pueden deducir un sin número de teorías que arman una hipótesis construyendo así conocimiento científico, sin embargo, este conocimiento se construye estableciendo los primeros hechos y después la teoría pero para ello requiere observaciones que se deben repetir en una amplia variedad de condiciones.

Si el inductivismo fuera vigente es posible que la química no se hubiera considerado como ciencia aún, ya que su crecimiento lo han aportado conjuntamente los diferentes movimientos que han conformado las teorías del conocimiento las cuales a través de una selección aportaron un método eficaz para esta ciencia, de no haber sido así sus investigaciones seguirían siendo observaciones no comprobadas y vistas de diferentes maneras por cada uno de los seres humanos.

Es más que obvio que la química se consolidó como ciencia gracias a sus aportes que han sido resultados de numerosas y rigurosas pruebas experimentales, en donde se comprueban las observaciones desde varios puntos de vista, siendo comparadas y comprobadas, esta es básicamente su principal diferencia con el inductivismo que solo observa generando hechos con poca credibilidad, la química observa y compara tanto experimentalmente como con las leyes de la naturaleza hasta comprobar.

Por las razones anteriores un método como el inductivismo no es conveniente a ser aplicado a una ciencia conformada como la química porque las observaciones con respecto al comportamiento de un objeto no tienen fundamento y mas al seguir la lógica del movimiento, por ejemplo cuando se menciona que para observar se debe tener la mente en blanco y así realizar un juicio equitativo o aproximado al pensamiento común de todas las personas, es casi imposible, porque la forma de ver de cada persona es diferente y va de acuerdo con sus vivencias; los métodos empleados por la química incluyen la experimentación la cual se mantiene apartada de los pensamientos y se sujeta de las leyes naturales y evidencias “tangibles” generando resultados que pueden ser refutados por otro método experimental que demuestre lo contrario con sus argumentos.
Juan Carlos León

FALSACIONISMO

¿Es válida la búsqueda permanente de errores en las teorías o postulados de una ciencia como la química para hacer un conocimiento verídico?

Después de los refutados resultados que daba el inductivismo a las ciencias, se desarrolló un nuevo movimiento que consiste en contradecir o negar los postulados de las leyes para que ella se encargue de comprobar la veracidad de los enunciados, según los falsacionistas como se denominaron los seguidores del movimiento, estas negaciones y el esfuerzo de las teorías por superarlas las hacen más fuertes y creíbles cuando demuestran hechos a través de la experimentación y otros métodos.

La química es una ciencia que se basa en un gran porcentaje de sus resultados experimentales para construir leyes y teorías, el falsacionismo aplicado a esta ciencia posiblemente trae grandes ventajas debido a los esfuerzos que harían los químicos en el laboratorio para diseñar experimentos que logren resultados favorables a las teorías o leyes en construcción, provocando una aceleración en los avances de la química y el descarte de postulados que definitivamente no fueron capaces de demostrar sus ideas.

En la actualidad las ciencias experimentales necesitan métodos que ayuden eficazmente a comprobar la hipótesis, es así como se aplica el falsacionismo en la química. Cuando un científico logra determinar mediante la experimentación por ejemplo la presencia de un nuevo elemento químico y lanza su hipótesis, muchos otros investigadores incursionaran en sus investigaciones para determinar la veracidad de su afirmación, a las conclusiones que pueden llegar es a aprobar o desechar la hipótesis sugiriendo el porqué, al ser negada, el tratará de diseñar nuevos métodos hasta comprobarla superando los posibles errores que hayan cometido y posiblemente encontrando nuevos descubrimientos ó hipótesis.

Esto refleja que el falsacionismo si beneficia a una ciencia con su método de plantear el conocimiento, poniéndolo a prueba verificándose con el ensayo y superando los errores, sin embargo, este movimiento parecería interminable ya que no tendría un argumento justo para aceptar una hipótesis con total seguridad pues cada vez las hace más falsables pero a su vez más efectivas.

Para las ciencias no es del todo conveniente que se rechace un postulado al no poder explicar sus fundamentos pues estos podrían surgir en otras investigaciones ó métodos, igualmente la observación pasa a un lugar de poca importancia y estas dos anteriores pueden significar un desarrollo de la hipótesis, por último este método puede ser conveniente para las ciencias como la química pero debería tomarse más en cuenta la observación y las teorías o postulados que no se comprueben en el momento.
Juan Carlos León
HISTORIA DE LA TABLA PERIODICA



En cualquier tentativa de clasificación de objetos, el fin es reunir aquellos que se parecen en algunos aspectos, y separar los que difieren. En cualquier caso real, existirán varios criterios de semejanza: y de acuerdo con el adoptado como base para la clasificación, la agrupación puede diferir, de modo que los objetos agrupados por su similitud en un aspecto, pueden ser separadas si la clasificación se basa en algún otro fundamento.


La mejor clasificación será aquella que reúna las cosas que se asemejan en el mayor número de aspectos. La clasificación de los elementos químicos ha sido desde hace mucho tiempo un tema atractivo. Los elementos han sido clasificados en metales y no metales; en ácidos y básicos, o lo que es lo mismo, en electropositivos y electronegativos; se han clasificado según su valencia y de acuerdo con muchas otras propiedades.


En todos estos sistemas muchos elementos aparecían en más de una clase, o bien elementos con pocas propiedades en común aparecían agrupados. Además las propiedades de los elementos usadas como base de la clasificación pueden variar con as condiciones en las cuales se observan dichas propiedades. El método mencionado en primer término, a saber, la división en metales y no metales, es a menudo conveniente; aunque, como en la mayoría de los sistemas, no es posible hacer una subdivisión exacta. Sin embargo, como una base general, pueden oponerse los metales y no metales de acuerdo a una serie de criterios, entre los que mencionaremos: reacción con el oxígeno y el hidrógeno, solubilidad en ácidos minerales, estado físico, peso específico, conducción del calor y la electricidad, ductilidad y maleabilidad, etc.


Para demostrar cuan difícil es trazar una línea rígida de demarcación entre metales y no metales, observamos que los no metales Arsénico, Antimonio y Teluro serían clasificados como metales si nos basáramos solamente en sus pesos específicos (alto para los metales) y su comportamiento como conductores del calor y la electricidad; por eso algunos introducen una tercera clasificación "los metaloides", para incluir los híbridos, o sea los elementos que tienen a la vez propiedades características de metales y no metales.


Los metales Litio, Magnesio y Aluminio tienen peso específico bajo, los no metales Carbono, Boro y Silicio son menos volátiles que la mayoría de los metales. El no metal Hidrógeno es un buen conductor del calor y la electricidad. Por tanto la división en metales y no metales no constituye sino un sistema grosero de clasificación adoptado arbitrariamente porque es conveniente.En todos los cambios químicos, por lo menos una propiedad permanece inalterada, y los sistemas de clasificación de más éxito se basaron en primera instancia, en esta propiedad, a saber, en los PESOS ATÓMICOS DE LOS ELEMENTOS.


Los primeros esfuerzos en esta dirección fueron dificultados seriamente por la incertidumbre con respecto a los valores numéricos de los pesos atómicos, pero después de aclarar los químicos la confusión asociada con la teoría atómica de Dalton, y de obtener un sistema estable de pesos atómicos, los resultados fueron más prometedores.


Entre 1.826 y 1.829 J. D. Dobereiner observó algunas regularidades entre los pesos atómicos de ciertos elementos relacionados entre sí, pues encontró que la mayoría de los elementos químicamente relacionados presentaban casi el mismo peso atómico (por ejemplo el Hierro, Cobalto y Níquel) o sino exhibían una diferencia constante cuando se disponían en grupos de tres elementos.


Otra característica interesante es que el elemento del medio tenía aproximadamente el peso atómico igual a la semisuma de los pesos atómicos de los elementos del extremo. Estos grupos se llamaron Tríadas de Dobereiner, pero pronto se notó que su lista no era sino un fragmento de una ley más general.Entre 1.863 y 1.866 J. A. R. Newlands publicó una serie de trabajos en que disponía a los elementos en orden ascendente de pesos atómicos, y notó que cada octavo elemento sucesivo era una especie de repetición del primero.


Según Newlands, los integrantes del mismo grupo están entre sí en la misma relación que los extremos de una o más octavas en música, y denominó provisionalmente a esta relación particular LEY DE LAS OCTAVAS.Newlands notó que los elementos que pertenecían al mismo grupo "usualmente" aparecían en la misma columna y declaró que todas las relaciones numéricas que se habían observado entre los pesos atómicos (incluyendo las conocidas tríadas), son simplemente resultados aritméticos que fluyen de la existencia de la Ley de las Octavas. Esta ley de las octavas no llamó mucho la atención, probablemente porque los pesos atómicos erróneos interferían seriamente con la disposición. La ley de las octavas se presentó en 1.866 en una reunión de la Sociedad Química de Londres. Observaciones similares se aplican a algunas publicaciones de A. E. B de Chancourtois, en 1.862, donde también se proponía clasificar a los elementos por sus pesos atómicos.


Una de las dificultades de las octavas es que a partir del calcio los elementos no guardan la progresión regular en su valencia y propiedades de los elementos de las dos octavas anteriores. Newlands no encontró solución a este problema, no previó la necesidad de colocar el elemento en la columna que le correspondía sobre la base de sus propiedades, aunque tuviera que dejar algún espacio vacío, que podía ser ocupado en el futuro.



GINA PAOLA BAUTISTA DUEÑAS

6/05/2008

LA NATURALEZA DEL UNIVERSO Y EL UNIVERSO HERMETICO

A través de la historia ha sido tan complicado explicar la alquimia como actualmente lo son muchos aspectos de la misma química, muchos historiadores no muestran el desarrollo y contexto de esta pseudo ciencia sino que se limitan a enseñarla a grandes rasgos. En el siglo XX Jung la explico como parte de la búsqueda del ser humano del sentido del mundo, Hopkins mostró tres importantes procedimientos prácticos de esta disciplina, y finalmente Eliade la relaciona con la antropología y el quehacer metalúrgico; estas tres posturas sirvieron a Harry Sheppard para plantear una definición que es significativa ya que develo los aspectos esotérico y exotérico de esta y la importancia del tiempo en estos procesos. La búsqueda por el lugar exacto de origen de la alquimia del cual esta se extendería a otras culturas, se ha convertido en una especie de obsesión para los historiadores, puesto que en diversas culturas se han encontrado elementos en común como el caso de la aurifacción y la aurificción.

La alquimia china surgió en un contexto influenciado por el taoismo y la idea de los opuestos; el yin la fuerza femenina, fría y oscura, y el yang la fuerza positiva, caliente y luminosa; que mediante su interacción formaron los cinco elementos de la naturaleza: el agua, el fuego, la tierra, la madera y el metal que formaban todo. Los chinos centraban su atención a la elaboración de un elixir que otorgara la inmortalidad, y dejaban a un lado la obtención del oro, por lo que pronto la alquimia china se inclino más hacia su lado esotérico. También practicaron una alquimia fisiológica, que pretendía hallar un elixir en el propio cuerpo humano, esto creo una fuerte conexión entre la medicina y la alquimia china. Los más grandes aportes químicos de la alquimia china fueron los fuegos pirotécnicos y la pólvora.

La alquimia griega nace a partir de la tradición oral recogida a través de los años de culturas que se remontan a la prehistoria; tales como la cocción de alimentos, la metalurgia y la elaboración de perfumes y pinturas.
La industria de la aurificción toma una gran fuerza en oriente, los sirios y egipcios desarrollan habilidades especiales en la elaboración de joyería de imitación a partir de piedras, plata y oro falsos; quines utilizaban estas técnicas solían relacionarlas con la magia, el ritual, y el secretismo, de esta forma le daban una base teoriaza al desarrollo de su labor.

Los metalúrgicos creían que los metales crecían en forma lenta dentro de la tierra y que por medio de rituales podían acelerar este proceso, estos rituales fueron transmitidos a la ciencia alquimica.

En el siglo V. a.C. Empédocles postulo la teoría de los cuatro elementos: agua, tierra, aire y fuego, los filósofos griegos plantearon que existían distintas propiedades y cualidades para formar estos elementos como lo eran el calor, la humedad, la sequedad y el frió y que todas las sustancias estaban compuestas por estos cuatro elementos.

Demócrito postulo su teoría atómica, con la cual Aristóteles no estaba de acuerdo, la rechaza y propone la teoría de la continuidad de la materia. Con la muerte de Aristóteles Epicuro confronto las dos teorías y propuso que los átomos eran las partículas mínimas de materia que se podían dividir, que tenían un tamaño definido, la combinación de estos al caer en el vació con velocidades iguales se debían a repentinos virajes.

El estoicismo también marco la alquimia griega esta corriente filosófica sostenía que la materia era indivisiblemente infinita, y se centraban en la analogía entre el macrocosmos y el microcosmos.

El periodo helenístico en Egipto fue muy representativo en la alquimia, Hermes Trimegistro escribió numerosos libros en los cuales se nota la influencia de la alquimia contemporánea, en donde la alquimia exotérica se había mezclado con la alquimia esotérica. En la alquimia helenística se han diferenciado tres corrientes conductoras como lo son la tecnología empírica, las teorías griegas sobre la materia y el misticismo.

La alquimia árabe y medieval por su parte se inicio por una expansión de la alquimia griega, en esta se formaron conceptos como piedra filosofal y elixir de la vida.

La alquimia exotérica que se dedicaba a la manipulación en el laboratorio, se relaciono con el empirismo científico y se centro el lo experimental

El corpus de Jabir y la summa perfección de Geber fueron textos muy importantes ya que en ellos se explicaba la composición de los metales a través de la teoría del azufre y el mercurio, Al-Razi en su escrito el secreto de los secretos clasifico las sustancias en metales, vitriolos, bórax, sales y piedras basándose en su solubilidad, esto fue un aporte importante par la alquimia, este árabe fue uno de los primeros en organizar los procedimientos de laboratorio en técnica de purificación, separación, mezclas y eliminación de agua o solidificación.

En el siglo XIII preparan por primera vez ácidos clorhídrico, sulfúrico y nítrico puros, utilizando los métodos que describía Al – Razi. Los alquimistas de Alejandría fueron los encargados de mejorar los métodos de destilación, consiguieron realizar un enfrentamiento por aire más eficaz en este proceso.

Por las destilaciones, el alcohol se convirtió en un importante disolvente y bebedizo en farmacia, en el siglo XIV Juan de Rupescissade denomina al alcohol como una quintaesencia, a la cual le otorgaba poderes medicinales y curativos, fue tanta la fuerza con que impacto Rupescissade que animo a otros farmacéuticos a producir quintaesencias de hiervas y minerales, iniciando así la época de la iatroquimica, con la cual se dio la separación de la alquimia y la química.

En el siglo XVI se dieron grandes avances en las tecnologías químicas y publicaron diversos textos en los cuales se planteaban ya teorías químicas, en esta época la alquimia tuvo una evolución, transformándose en lo conocemos como química.

Newton es considerado de alguna forma como el último “mago” o alquimista, en algunos de sus manuscritos resalta su interés en la alquimia como parte esencial de su visión del mundo. Este se intereso mucho en la transmutación y la naturaleza corpuscular de la materia.

La alquimia dio las primeras bases para la constitución de la química, a medida que los conocimientos químicos iban avanzando y progresando sus investigaciones la alquimia se estaba quedando sin mucho impacto, ya que con los conocimientos químicos se fueron explicando lo “mágico” de la alquimia tomándolo como que los alquimistas en su afán de sorprender lo que hacían era engañar. También se entendió como que los alquimistas buscaban dar una explicación espiritual a lo que hacían, más que encontrar la esencia empírica de las cosas.

Boyle es uno de los más importantes representantes en la alquimia de Newton, este adopta la teoría atómica para explicar las transformaciones químicas, por esa época se da en Europa el surgimiento de las primeras academias de ciencia.

Tatiana Romero Garcia.

Laura Patricia Cano R.

6/01/2008

CARBONO 14 EN VIDA Y MUERTE

En este mismo momento su cuerpo posee una gran cantidad de atomos del isotopo carbono 14 y usted no lo sabe, ya que en todo organismo vivo, cada gramo de carbono contiene 10 -6 gramos de C 14 . Este isótopo fue descubieto por M.D. Kamen que nacio en 1913 en Toronto de padres inmigrantes, la madre de la región del Báltico, el padre de Bielorrusia. En 1936, Kamen había defendido su grado de doctor en Química en la temática de la interacción protones-neutrones en la Universidad de Chicago. En 1937, Ed McMillan lo traslada a Berkeley, en donde la producción y caracterización de los isótopos producidos en el ciclotrón sería una responsabilidad de Kamen.

En febrero de 1940, se anunciaba, en ocasión de la ceremonia de entrega oficial del premio Nobel de Física (1939) a E.O. Lawrence por el cónsul sueco en el Salón Wheeler de Berkeley, el descubrimiento del carbono-14. La valoración del significado trascendental del hallazgo nos llega en el discurso pronunciado por el jefe del Departamento de Física, Raymond T Birge: “tengo el privilegio de transmitirle una noticia de gran importancia..., el Dr S. Ruben, instructor en química y el Dr M.D. Kamen, investigador asociado en el Laboratorio de Radiación han encontrado por medio del ciclotrón, una nueva forma radioactiva del carbono, probablemente de masa 14 y tiempo de vida media del orden de magnitud de algunos años. Sobre la base de su potencial utilidad es la más importante sustancia radioactiva que haya sido creada.”. Tenían entonces ambos 27 años.

En la primavera de 1945 el premio Nobel de Física (1923) Arthur H. Compton (1892 - 1962) lo invita a trabajar en la Escuela de Medicina de la Universidad Washington para conducir el programa del ciclotrón. Sin embargo la enseñanza de la metodología del trazador radioactivo a los profesores y la preparación de materiales radioactivos marcadores para sus investigaciones clínicas, desplazaron el interés de la investigación desde la física nuclear y la radioquímica hacia la bioquímica. Con la publicación en 1947 de su aclamado texto “Radioactive tracers in Biology”, Kamen concluyó su trabajo sobre el carbono –14.

Carbono 14: Isotopo


Los protones caracterizan a los elementos químicos. Todos los átomos con igual número de protones tienen características químicas idénticas. Los neutrones no. Dentro de los elementos se incluyen átomos con diferente número de neutrones, llamados isótopos de un elemento. Todos los isótopos de un elemento tienen el mismo número de protones, pero varían en el número de neutrones. En 1896 el químico Henry Becquerel descubrió la radiactividad natural, consistente en la desintegración espontánea de los isótopos, es decir, en las variaciones que sufren en el número de neutrones o protones de su núcleo, emitiendo radiaciones. Cuando varía el número de neutrones, el isótopo se convierte en otro isótopo distinto del mismo elemento. Si la modificación varía el número de protones se produce un cambio de elemento. Estas desintegraciones radiactivas se producen espontáneamente, pero a un ritmo regular, pudiendo establecerse su vida media. La vida media de un isótopo radiactivo es el espacio de tiempo necesario para que la cantidad inicial de ese isótopo se reduzca a la mitad.



Los métodos comúnmente más utilizados para averiguar la edad de las formaciones geológicas o datar como también se le conoce, involucran el proceso denominado decaimiento radioactivo. Ciertos átomos son inestables, y sus núcleos se separan en partes cambiando en otros elementos a través de un proceso llamado "decaimiento radioactivo". Algunos de estos elementos radioactivos se transforman a sí mismos al emitir una partícula de alta energía consistente en dos protones y dos neutrones (es decir, un núcleo de Helio ó partícula "alfa"), un proceso conocido como "decaimiento alfa". Otros elementos radioactivos decaen cuando un neutrón de su núcleo se rompe produciendo un protón y un electrón. El protón permanece en el núcleo, y el electrón es emitido [expulsado fuera del núcleo] a muy altas velocidades -proceso conocido como "decaimiento beta". La ley de Rutherford sobre el decaimiento radiactivo dice que el número de átomos de un elemento radiactivo transformados en un tiempo determinado es proporcional al número de átomos de ese elemento que estén presentes en la substancia.



La datación por carbono-14 es un procedimiento para determinar la edad de ciertos objetos arqueológicos que tengan un origen biológico con una antigüedad de hasta cerca de 60.000 años. Se utiliza para fechar cosas tales como: huesos, madera, fibras vegetales que fueron creadas en un pasado relativamente reciente por actividades humanas. Una de las aplicaciones mas reconocidas que se la ha dado al carbono 14 fue con el santo sudario.

TATIANA ROMERO GARCIA

LAURA PATRICIA CANO


EL PAPEL DE LA HISTORIA Y LA EPISTEMOLOGIA DE LA CIENCIA EN LA DIDACTICA CONTEMPORANEA DE LAS CIENCIAS




Al concebir la enseñanza y el aprendizaje de las ciencias se debe tener claro que estas se fundamentan por las concepciones propias de la ciencia, por ello es importante que estos dos aspectos no se traten como conceptos aislados, sino que las problemáticas de la didáctica de las ciencias se resuelvan con base en ellas sin caer en la generalidad y la ambigüedad. Múltiples investigaciones realizadas han permitido reconocer las concepciones epistemológicas que siguen los maestros y los estudiantes de ciencias y resultan ser casos coherentes con posturas filosóficas clásicas ciertamente ya superadas en el ámbito científico. Específicamente se ha encontrado que la transmisión de la actividad científica se rige por un modelo de carácter empírico, esta corriente epistemológica cobro gran importancia en los siglos XVI y XVII ligada con la revolución científica y siguió ejerciendo gran influencia hasta hace un siglo atrás con la premisa acerca de la importancia de la experiencia en la adquisición del conocimiento.

Mas allá de la ciencia esta todo aquello que nos permite comprender el desarrollo del conocimiento científico, todos los procesos que siguen los hombres de ciencia para producir conocimiento, como surgen, se arraigan y se refutan las ideas y el papel de estas en el desarrollo social, de todos estos menesteres se encarga la epistemología de la ciencia o filosofía de la ciencia. Por otro lado en diferentes obras Bacón y Descartes exponían métodos aplicables a la actividad científica, el primero propuso una organización que los científicos podían seguir, mientras que Descartes propuso un sistema para superar la escolástica medieval.

En este punto se hace énfasis en que el conocimiento de la ciencia que va a enseñarse no se limita a mostrar hechos, principios y definiciones, sino también a la comprensión de las estructuras de la disciplina científica, y es justo aquí en donde la epistemología y la historia de las ciencia se hacen materias primordiales en el currículo como herramienta para examinar críticamente el modo como se han emanado los conocimientos científicos. Esto implica dejar atrás la concepción de la ciencia como un ente estancado, fehaciente, objetivo y exacto para dar lugar a una concepción más amplia en la cual los hechos, conceptos y principios son explicaciones teóricas provisionales en constante evolución.

Teniendo en cuenta que las teorías científicas son explicaciones racionales que representan nuestras creencias acerca de nuestro entorno, que son la consecuencia de la actividad científica, que están orientadas a brindar explicaciones a los fenómenos, y que identifican y dan sentido a los problemas que tratan, estas junto con la ciencia han de presentarse a los estudiantes como una entidad en construcción permanente, mostrando su desarrollo sociocultural e historico particular y dando a cada enunciado teórico un tratamiento especifico según sus peculiaridades, todo lo anterior como herramienta de inserción de los lineamientos didácticos que han de orientar los programas de formación en ciencia.

La no inclusión de la historia y la epistemología de la ciencia en un currículo acarrea ideas erróneas en el estudiante, como que la ciencia es obra de pocos genios, todos ellos hombres, y que el conocimiento científico es perfecto y nos se ve afectado por el contexto, por ello es justo replantear la orientación y los fines de la educación científica. Es importante incluir una historia que haga visible el carácter dinámico, incierto y competitivo de la ciencia, que humanice los contenidos, que demuestre que la ciencia es susceptible a ser transformada, que motive a los alumnos y que permita un conocimiento mas amplio del método científico, que en conclusión permita a los alumnos y maestros interesarse no solo en los contenidos sino también en los elementos sociales de creación y apropiación de la ciencia.
TATIANA ROMERO GARCIA
LAURA PATRICIA CANO

5/31/2008

HISTORIA DE LA NOMENCLATURA QUIMICA

Se podría decir que la nomenclatura y su desarrollo en la química han tenido un papel primordial para la diferencia de sustancias y compuestos químicos a través de la historia.la nomenclatura es un conjunto de reglas que se utilizan para nombrar todas aquellas combinaciones que se dan entre los elementos y los compuestos químicos. Actualmente la IUPAC (Unión Internacional de Química Pura y Aplicada) es la máxima autoridad en nomenclatura, la cual se encarga de establecer las reglas correspondientes.
HISTORIA
  • La moderna nomenclatura química tiene su origen en el "Méthode de nomenclature chimique" publicado en 1787 por Louis-Bernard Guyton de Morveau (1737-1816), Antoine Laurent Lavoisier (1743-1794), Claude Louis Berthollet (1748-1822)y Antoine François de Fourcroy (1755-1809).




  • Siguiendo propuestas anteriores formuladas por químicos como Bergmann y Macquer, los autores franceses adoptaron como criterio terminológico fundamental la composición química. Los elementos fueron designados con nombres simples y únicos, mientras que los nombres de los compuestos químicos fueron establecidos a partir de los nombres de sus elementos constituyentes más una serie de sufijos. Esta terminología se aplicó inicialmente tanto a sustancias del reino mineral como del vegetal y animal, aunque en estos últimos casos planteaba muchos problemas.

  • El desarrollo de la química orgánica a partir de los años treinta del siglo XIX propició la creación de nuevos términos y formas de nombrar compuestos que fueron discutidos y organizados en el congreso de Ginebra de 1892, del que surgieron muchas de las características de la terminología de la química orgánica. · El otro momento decisivo en el desarrollo de la terminología química fue la creación de la IUPAC (International Union of Pure and Applied Chemistry).

  • La IUPAC surgió a partir de la Asociación Internacional de Sociedades de Química que se fundó en París en 1911 con representantes de sociedades nacionales de catorce países. De esta asociación surgieron varios grupos de trabajo encargados de estudiar nuevas propuestas de reforma de la nomenclatura química.
  • Tras la interrupción producida por la Primera Guerra Mundial, una nueva asociación volvió a crearse en 1919, cambiando su nombre por el de Unión Internacional de Química Pura y Aplicada (IUPAC). · La guerra no sólo supuso la aparición de una nueva organización sino también la salida de las sociedades alemanas, que habían sido uno de los primeros impulsores de estas organizaciones internacionales de química.
  • En 1930, se produjo la entrada de los representantes de las sociedades alemanas a la IUPAC, lo que permitió que se integraran los representantes del Beilstein Handbuch de Alemania, con lo que se completó la representación de las principales revistas y de los dos repertorios de química más importantes del momento. Todos ellos, junto con los representantes de las sociedades químicas, jugarían un papel decisivo en el desarrollo de la terminología química en los años siguientes.

LUIS ARMANDO CONTRERAS JORDAN.... xD