viernes, 29 de diciembre de 2017

Química de Navidad

En estas fiestas tan señaladas, me llena de orgullo y satisfacción poder enseñaros algo de ciencia relacionada con la navidad.

Nieve de mentira, ¿cómo hacerlo?

Se puede hacer nieve de mentira para adornar belenes o cualquier otra cosa navideña (o invernal) de una manera barata y sencilla. Se trata de añadir agua a poliacrilato sódico, dando lugar a un cambio de estructura del poliacrilato que multiplica su volumen por casi 500 veces.

Nieve artificial
https://imgur.com/gallery/389nCsx
¿Donde puedo encontrar este poliacrilato? Pues muy sencillo, es el relleno de la mayoría de los pañales de bebé, por eso son capaces de absorber tanta agua. Así que ya sabes, para hacer nieve a comprar pañales.

Bolas de cristal de nieve.

¿Cómo hacen las bolas de cristal en las que nieva dentro? Estas bolas se fabrican llenandolas en caliente con un disolución saturada de ácido benzoico, muy soluble en agua caliente y muy poco soluble en agua fría.

christmas winter GIF
Bola de cristal de nieve
https://giphy.com/gifs/cute-christmas-winter-11BEQyXROgnLTG

Después unicamente hay que esperar a que se enfríe y precipite el ácido benzoico para tener una preciosa bola de cristal con nieve.

Bombetas

Esas pequeñas bolsitas que tanto nos gustaban a muchos de pequeños pero que de mayores nos sacan de nuestras casillas. Esos envoltorios de papel tienen una química interesante dentro. Estas bombetas están compuestas de unas bolitas de abrasivo rodeadas de algún fulminante, como puede ser el fulminato de plata (AgCNO). Al lanzarlas, las bolitas rozan entre ellas y provocan (ya sea por calor o por alguna chispa) la detonación del fulminante.

Explosión de bombetas
https://es.gizmodo.com/como-obtener-plata-a-partir-de-los-pequenos-petardos-co-1783128907
Ya que estos compuestos contienen plata en la página del GIF os enseñan a extraer la plata para haceros algún colgante (o matar hombres-lobo 🐺, eso ya depende de la necesidad).

Bengalas

Si seguimos con esta tradición, en los sitios donde se venden las bombetas también se venden bengalas que echan chispitas. Estas chispas realmente son trozos de metal incandescente (por eso queman si te caen), normalmente son aluminio o magnesio, con oxidantes como el nitrato y algunos llevan otros metales para darles color. Lo explican muy bien la gente de Compound Interest:

La química de las bengalas
http://www.compoundchem.com/2014/11/04/sparklers/

Cohetes y fuegos artificiales

La física de los cohetes creo que es bastante conocida (Tercera ley de Newton: Acción-reacción) hoy  vamos a revisar lo que es la explosión y los colores que tienen en el cielo. Estos colores provienen de la oxidación de distintos metales. Antiguamente, esta oxidación se llevaba a cabo calentando los óxidos de los metales con aluminio, dado lugar a la aluminotérmia (basados en diagramas de Elingham, para los que sepan). Hoy en día estas reacciones se hacen quemando pólvora negra, que proporciona la temperatura y los colores los proporcionan los mismos metales (esta vez no son óxidos) finamente divididos y mezclados con la pólvora. De nuevo Compound Interest lo explica muy bien con cada metal y color.
La química de los colores de los fuegos artificiales
http://www.compoundchem.com/2013/12/30/the-chemistry-of-fireworks/

Pues esto es algunas pinceladas de la química de Navidad. Como siempre, sugerencias, dudas, comentarios los puedes hacer abajo o en Facebook. Nos vemos la semana que viene y, para terminar, os dejo un video de Destripando la Historia del origen de la Navidad.



Feliz año!!

domingo, 24 de diciembre de 2017

¿Qué detectores se usan en cromatografía? Parte I

Como vimos en uno de los primeros post, para poder saber cuándo algo sale de nuestra columna (en aquel caso del canal de agua) necesitamos un detector (un "becario" que cuente) ya que la cromatografía de por sí sólo separa (espero que quedase claro entonces). Dependiendo del medio en el que trabajemos, el tipo de cromatografía, lo que queramos ver y, más importante aún, lo que NO queremos ver, el límite de detección que queramos conseguir (lo mínimo que queremos ver) y, como todo en esta vida, de lo que cuesta (no sólo comprarlo si no mantenerlo también) debemos hacer la elección de nuestro detector. Vamos a ver cuáles hay y sus principales características.

Además de todos los detectores presentes en este post existen los detectores de espectrometría de masas que pienso que merecen un post aparte y lo tendrá en la Parte II.

¿Qué es un cromatograma?

Un cromatograma es una representación de la señal que nos ofrece un detector con respecto al tiempo, como si fuese un electrocardiograma. Debido a que la cromatografía separa, lo que vamos a obtener son diferentes picos correspondientes a cada especie. Se ha demostrado que el área de cada pico es proporcional a la concentración de cada especie y no la altura de cada pico (como parecería ser.
No siempre los picos están totalmente separados (separados a línea base), especialmente cuando hay  por lo que a veces la cuantificación es complicada. Esta es una de las razones por las que se utilizan distintos detectores, para intentar ver unos picos y no ver otros. Vamos a ver los detectores y veremos también qué maneras hay de evitar estos picos indeseables.

Detectores para TLC

Habitualmente, los soportes para cromatografía en capa fina vienen con un revelador fluorescente que, al ponerlo debajo de la luz ultravioleta, emite luz (una ligera luz verde) dejando manchas oscuras (que no emiten luz) donde haya un compuesto. Para saber dónde hay una mancha sin necesidad de estar debajo de una luz ultravioleta se recurre al "sofisticado" sistema de rodear con un lápiz (como a los muertos en las películas con la tiza). De esta manera se puede calcular su retención y ser capaz de compararlo e identificarlo.

Detectores para GC

Los detectores de GC que vamos a mostrar aquí tienen una característica en común, que son destructivos (excepto el ECD que no siempre es destructivo) no podemos obtener la muestra otra vez de nuevo. Por ello deben ser sensibles y medir rápido ya que los picos de GC son muy estrechos.

Detector de ionización por llama (FID)

Este detector es uno de los más empleados en GC debido al sencillo y mínimo mantenimiento. Se basa en crear una llama de hidrógeno (H2 +O(aire)= H2O + energía) e ir quemando todo lo que sale de la columna. El gas portador, normalmente N2 o He, no se queman por lo que únicamente da señal cuando llega algo capaz de ser quemado (como cualquier molécula orgánica). 
Funcionamiento de un detector FID
https://rockylouproductions.com/blog_wp/2013/10/02/gifs-gimp-and-me/
Una vez que el compuesto se quema se produce un intercambio de electrones que puede ser medido por dos electrodos situados al lado. Cuantas más moléculas, más carbono, más señal y más intensidad veremos en el cromatograma.

Los FID no pueden detectar sustancias inorgánicas y algunas especies altamente oxigenadas o funcionalizadas, como la tecnología de infrarrojos y láser. En algunos sistemas, el CO y el CO2 se pueden detectar en el FID usando un metanizador, que es un lecho de catalizador de Ni que reduce el CO y el CO2 al metano, que a su vez puede ser detectado por el FID. El metanizador está limitado por su incapacidad para reducir los compuestos que no sean CO y CO2 y su tendencia a ser envenenado por una serie de productos químicos que se encuentran comúnmente en los efluentes de GC.

Las principales ventajas son su sensibilidad (10-13 g/s) y su rango dinámico (hasta 107 g/s, casi 20 órdenes de magnitud), su bajo mantenimiento y su robustez.


Detector de nitrógeno-fósforo (NPD)


Este detector de GC es específico para compuestos que contienen nitrógeno y/o fósforo. Se basa en el aumento de corriente producido en la reacción del fósforo o el nitrógeno con hidrógeno descompuesto catalíticamente por una capa de cesio o rubidio. Con este detector se obvian elementos muy comunes en compuestos orgánicos como el carbono o el oxígeno, detectando únicamente los compuestos de interés.
Detector de nitrógeno-fósforo (NPD)
https://clu-in.org/char/technologies/npd.htm

Detector de captura electrónica (ECD)

El detector de captura de electrones es un tipo de detector utilizado en cromatografía de gases para detectar trazas de compuestos químicos en una muestra. Su funcionamiento se basa en ionizar el gas portador (normalmente N2) con 63Ni o tritio (3H) generando una corriente eléctrica. Cuando un compuesto con un elemento más  electronegativo como halógenos, peróxidos, quinonas, grupos nitro, grupos que contienen átomos de halógeno (cloro, bromo, yodo), oxígeno o nitrógeno pasa por el detector, estos átomos capturan los electrones, disminuyendo la intensidad de la corriente producida.  Hay grupos como el alcohol, amina e hidrocarburos que no dan señal, siendo selectivo para los demás compuestos. Presentan la característica principal de ser muy sensible (hay en muestras que son el que más) junto con la desventaja de contener elementos radiactivos, por lo que deben ser tratados con cuidado y revisados periódicamente.
Detector de captura electrónica (ECD)
https://commons.wikimedia.org/wiki/File:Electron_capture_detector.png



Detectores de LC

Es este caso hay mucha más variedad de detectores, no todos destructivos, no todos igual de sensibles, no todos sirven para lo mismo. Vamos a repasar los detectores más habituales:

Detectores fotométricos (Ultravioleta-visible (UV-Vis) e infrarrojo (IR))

Estos detectores son de los más utilizados en LC (especialmente los UV-Vis) debido a su bajo coste, bajo mantenimiento, su variedad de detecciones y de detectores derivados. Se basan en la absorción de luz visible o ultravioleta por las moléculas. Esta absorción puede ser específica de una molécula, de algunas pocas o de todas pudiendo elegir qué compuestos se detectan. Además este tipo de detectores son no destructivos, lo que significa que el compuesto a estudiar puede recuperarse tal cual disuelto en la fase móvil o puede ser colocado delante de otro detector que ofrezca información complementaria.
También se puede medir varias absorciones con diferentes luces a la vez mediante unos detectores en serie, conocido como detector de serie de diodos, diode array detector o DAD.
Diferentes detectores UV
http://www.chromatographyonline.com/important-aspects-uv-detection-hplc

Una variante importante de estos detectores son los detectores de fluorescencia, que se basan en medir la emisión de luz de ciertas moléculas después de iluminarlas con otro tipo de luz (emiten luz menos energética de la que absorben). En un próximo post hablaremos de la absorción y emisión de luz, de fluorescencia y fosforescencia.

Detectores electroquímicos

Se basan en medir la diferencia de potencial o la intensidad de corriente que pasa por el eluyente de la columna. No son destructivos pero pueden modificar algunas moléculas debido a reacciones de oxidación-reducción. La manera más habitual de medir es mediante voltamperometría de onda cuadrada. Es utilizado principalmente en cromatografía iónica después de la columna supresora de iones.

Plasma acoplado inductivamente (ICP)

Este detector se basa en un plasma de Ar a una temperatura entre 8000 y 10000 grados (aprox. la temperatura en la superficie de Sol). A esta temperatura se rompen (casi) todos los enlaces químicos y, además, es capaz de arrancar un electrón de la mayoría de los elementos. Esta recombinación de los electrones con los iones emite luz que puede ser medida mediante métodos ópticos (ICP-OES) o también se puede colocar un espectrómetro de masas antes de que se produzca esa recombinación para separar los iones (ICP-MS). Se utiliza principalmente (cuando está acoplado a cromatografía) para especiación de metales.
Esquema de un equipo ICP-OES sin acoplar a cromatografía
http://www.rohs-cmet.in/content/icp-oes
A principios de esta semana publiqué en Facebook cómo es el encendido del plasma de mi equipo de ICP-MS.

Detectores de índice de refracción

Estos detectores no son muy utilizados excepto en industrias muy especializadas como en alimentación. Se basan en el cambio del índice de refracción que se produce al pasar un soluto por el detector.

Detectores quirales

Este tipo de detectores se basan en que las moléculas con carbonos asimétricos (quirales). Este tipo de moléculas absorben y transmiten la luz polarizada a diferentes velocidades por lo que se puede saber qué forma asimétrica (enantiómero) está pasando a partir de las desviaciones producidas en la luz polarizada. Estos detectores son especialmente utilizados en medicina y farmacia, así como en algunos campos de la alimentación. Las técnicas acopladas en contínuo son la polarimetría y el dicroísmo circular.
Dicroísmo circular
https://es.slideshare.net/manuelgug/expo-espectroscopa


Hasta aquí los detectores más importantes y más utilizados en cromatografía excepto el de espectrometría de masas, que como ya comenté merece un post para él solo. 
Si tenéis dudas, querés que comente algún otro detector a parte, más detalles técnicos o analíticos me los podeis preguntar por comentarios aquí, en facebook o por privado.

Nos vemos!

martes, 12 de diciembre de 2017

¿Qué tipos de cromatografía hay?

Una vez entendido lo que es a grandes rasgos la cromatografía, vamos a ver cómo se puede clasificar y organizar para ver qué tipos de cromatografía hay. Empezamos:

¿En qué estado está mi fase móvil?

La clasificación más grande dentro de la cromatografía se hace prestando atención a la naturaleza de la fase móvil. Si realizaste el experimento de hace dos semanas pudiste observar que tu fase móvil era un líquido (alcohol o acetona), por lo que el experimento que hiciste se clasifica dentro de la cromatografía de líquidos (liquid chromatography, LC en inglés). Igual que un líquido arrastra los componentes que lleva disuelto un gas puede arrastrar componentes volátiles a través de un tubo cerrado, dando lugar a la cromatografía de gases (gas chromatography, GC en inglés). Aunque para quien haya estudiado química es no es algo raro, el resto del mundo suele desconocer un estado de la materia intermedio entre el gas y el líquido denominado fluido supercrítico, estable únicamente a temperaturas y presiones muy altas (estos fluídos merecen un post individual). Si los gases y los líquidos pueden disolver y arrastrar compuestos químicos los fluidos supercríticos también pueden, siendo a veces más efectivos que los líquidos y gases por separado, existiendo una cromatografía de fluidos supercríticos(supercritical fluid chromatography, SFC en inglés). El CO2 supercrítico es la fase móvil más utilizada y se está convirtiendo, especialmente en la industria farmacéutica, en una de las técnicas más prometedoras.

Diagrama P-T donde aparece el fluído supercrítico
https://upload.wikimedia.org/wikipedia/commons/thumb/3/38/Diagrama_fases.png/310px-Diagrama_fases.png
Debido a las propiedades de los fluidos supercríticos, éstos deben ir confinados a presión en un tubo y se les tiene que aplicar cierta presión extra para que sean capaces de circular. Además, estos fluidos supercríticos apenas interaccionan con los compuestos, igual que los gases, por lo que comúnmente ambos se denominan portadores. 

Por contra, en el caso de los líquidos no es así. Es por ello que LC presenta una mayor versatilidad: puede estar abierto (como en el caso del primer día del rotulador) e interacciona con los compuestos a analizar, ya que debe disolverlos.
En el caso de LC en el que el líquido se desplace a través de una lámina delgada (como en los rotuladores) se denomina cromatografía en capa fina (thin layer chromatography, TLC en inglés) y si va confinado en un tubo y se mueve bajo presión, como en el caso de los gases, se denomina cromatografía en columna.
Por favor, ¡¡un resumen hasta aquí!!

Después de todo este rollo, la clasificación de la cromatografía basada en la naturaleza de la fase móvil es la siguiente:

  • Cromatografía de gases (GC)
  • Cromatografía de fluidos supercríticos (SFC)
  • Cromatografía de líquidos (LC)
    • Cromatografía en capa fina (TLC)
    • Cromatografía en columna

Fases en cromatografía

Lo primero, es explicar que es una fase o modo. Un modo cromatográfico se refiere a un tipo concreto de interacción para llevar a cabo la separación. Mejor que explicarlo, vamos a verlo con detalles concretos.

En el caso de Tsweet o de los rotuladores, la fase estacionaria está constituida de compuestos polares (ya sea sílice (SiO2) o celulosa) mientras que la fase móvil son compuestos orgánicos mayoritariamente apolares (como el hexano o la acetona). Esto se denomina fase normal y fue el primero que se desarrolló. Este modo permite realizar separaciones basadas en polaridad (ya que las interacciones con la fase estacionaria van a ser de tipo polar), permitiendo, por ejemplo, separar moléculas por grupos funcionales (ácidos, alcoholes, etc).

Si el modo normal es fase estacionaria polar y fase móvil apolar, se denomina fase inversa (no reversa, traducción literaria del inglés reverse) y permite separar las moléculas por su parte apolar. Ya que como bien comenta mi mentor Luis Polo, 
Toda molécula orgánica que se precie tiene su corazoncito apolar
este modo permite separar compuestos por su cadena carbonada, distintas cadenas carbonadas, distintas interacciones, distinta retención; por lo que es capaz de separar prácticamente cualquier tipo de molécula. Además, el poder utilizar agua en la fase móvil (polar) abarata tremendamente los costos (los de dinero, no los otros...) así como el impacto ambiental al minimizar el uso de los disolventes orgánicos. La fase normal más utilizada es la conocida como C18 u octadecilsilano (ODS), una cadena de 18 átomos de carbono unida a una matriz de sílice (que no interacciona). Este modo es casi exclusivo de LC en columna, siendo el modo normal predominante en GC y SFC.
Superficie de partícula de C18
http://www.mn-net.com/Portals/4/images/Redakteure_Chroma/HPLC/C18-Gravity-3D.gif
Hay muchos otros modos como HILIC (cromatografía líquida de interacciones hidrofílicas), PIM (Modo iónico polar), POM (modo orgánico polar) o, incluso, cromatografía de exclusión por tamaños (SEC) donde no hay interacciones intermoleculares; pero una cromatografía especialmente interesante es la cromatografía iónica, con varios modos, que necesitaré un post para ella sola.

Por esta semana es suficiente. Espero que vayáis tomando nota y os estáis enterando de todo. Para dudas, comentarios, ampliaciones, etc, están los comentarios en todas las plataformas (aquí o Facebook).

Nos vemos la semana que viene. (No se te olvide votar tema para el post de la semana que viene y compartirlo con quien creas que puede serle útil)

Cuídate!!

PD: En mi tesis doctoral emplee dos (o tres) modos cromatográficos, fase inversa y cromatografía quiral, de la que hablaré en otro post, un modo en cada sistema. El hecho de unir dos cromatógrafos sería otro modo especial, la cromatografía multidimensional, de la que habrá otro post. Si tenéis dudas o queréis más información, dejadlo abajo. Nos vemos!!


lunes, 4 de diciembre de 2017

¿Cómo optimizar con el mínimo número de ensayos?

Muchas veces queremos obtener las mejores condiciones para realizar nuestro experimento, las cantidades precisas, proporciones exactas o valores óptimos de cualquier cosa que se os ocurra. Muchas veces con un par de ensayo del factor más importante es suficiente y conocemos el valor deseado pero... ¿Y si tenemos muchos factores? ¿Y si la variación de la respuesta depende de la proporción de varios factores a la vez? ¿Y si los valores óptimos de varias respuestas no coinciden? ¿Y si quiero obtener una superficie de respuesta para saber dentro de que intervalos me puedo mover al realizar mis experimentos?
No te preocupes, hoy voy a intentar ayudarte con todo esto ayudándome de las matemáticas y la estadística, utilizando algunos ejemplos de mi propia tesis doctoral. Vamos...

¿Qué es la Quimiometría?

Según la IUPAC en su Gold Book, la quimiometría es la aplicación de la estadística para el análisis de datos químicos (de química orgánica, analítica o médica), el diseño de experimentos químicos y de simulaciones. Hoy me voy a centrar en el diseño de experimentos y cómo hacerlo con el mínimo número de experimentos.

La metodología más empleada es la basada en diseños factoriales aunque hay otras metodologías como el simplex que, en algunos casos, pueden obtener resultados similares con un menor número de experimentos. La desventaja del simplex frente a los diseños es que no se conoce la influencia de cada una de las variables, sus interacciones ni el número total de experimentos a realizar a priori.

El objetivo de un diseño factorial es estudiar el efecto de varios factores sobre una o varias respuestas, cuando se tiene el mismo interés sobre todos los factores. Por ejemplo, uno de los objetivos particulares más importantes que en ocasiones tiene un diseño factorial es determinar una combinación de niveles de los factores en la que el desempeño del proceso sea mejor.

Los factores pueden ser de tipo cualitativo (máquinas, tipos de material, operador, la presencia o ausencia de una operación previa, etc.), o de tipo cuantitativo (temperatura, humedad, velocidad, presión, etc.). Para estudiar la manera en que influye cada factor sobre la variable de respuesta es necesario elegir al menos dos niveles de prueba para cada uno de ellos. Con el diseño factorial completo se ensayar aleatoriamente todas las posibles combinaciones que pueden formarse con los niveles de los factores a investigar.

Los diseños factoriales se denominan de acuerdo al número de ensayos que se realizan en cada variable. Si suponemos un diseño de dos variables, una con dos y otra con tres ensayos de cada variable o niveles, tendríamos un cuadrado con dos puntos (en los extremos) en dos de los lados y los otros dos con tres, resultando un total de 2×3=6 puntos del diseño factorial. Habitualmente, se suele emplear el mismo número de experimentos en todas las variables, resultando diseños del tipo 3×3 o 2×2×2, resultando diseños tipo 32 o 23, o nv, donde n es el número de niveles y v el número de variables.

De igual manera, es habitual normalizar los valores de las variables aunque en la mayoría de los casos no es necesario. Para normalizar, se le otorga al punto menor el valor de -1 mientras que al mayor se le asigna 1. El resto de los puntos se asignan proporcionalmente a esta diferencia. Por ejemplo, si hay un punto central, este punto tendrá el valor de 0.

Una vez tenemos esto, en teoría podríamos preparar diseños factoriales con muchas variables y muchos puntos por variable, estamos únicamente limitados por nuestra capacidad de realizar tantos experimentos, ya que crecen exponencialmente. Muchas veces los experimentos resultantes son demasiados para realizarlos en una única jornada de trabajo o, incluso, en dos. Para evitar estos trastornos existen los diseños factoriales fraccionados, en los que únicamente se ensaya una fracción de los puntos, resultando una reducción muy importante de ensayos (en un factor de 1/2p). Estos diseños se expresan como nv-p, siendo p la fracción de puntos no ensayados que acabo de comentar. Por ejemplo, en un diseño 23-1 únicamente se ensayan (2×2×2)/2= 4 puntos de los 8 originales de los que cuenta el diseño. Además de una reducción de los experimentos muy importante también hay información que se pierde por el camino, en este caso, hay interacciones que se vuelven indistinguibles. Vamos a verlo con un ejemplo concreto de mi tesis doctoral.


Para optimizar una separación quiral de tres profenos ensayé cuatro variables (pH, porcentaje de 2-propanol (2-PrOH) y concentración de sales de la disolución reguladora de pH (Tampón) y de trietilamina (TEA), un modificador para el reconocimiento quiral) para determinar cuáles eran las más influyentes en mi respuesta, resultando 24=16 fases móviles a ensayar en un día, cosa bastante complicado, por lo que decidí usar un diseño factorial fraccionado. Para evaluar los resultados utilicé 7 respuestas. La matriz de datos obtenida fue la siguiente:

Matriz de diseño factorial fraccionado
En la parte inferior de la tabla se pueden ver los extremos de cada variable del diseño. Una vez con los resultados, vamos a proceder a evaluarlos. Existen diferentes maneras de evaluarlos, por ejemplo mediante análisis de la varianza (ANOVA), pero una de las maneras más intuitivas de interpretar estos diseños es mediante diagramas de Pareto, en los que se se indica mediante barras la influencia y el signo de la interacción de cada una de las variables. Además, en los diagramas de Pareto estandarizados, se puede saber qué variables son estadísticamente significativas. Para estimar los errores estadísticos hay que hacer repeticiones en algún punto del diseño, en este caso en el centro del diseño. Veamos el diagrama de Pareto estandarizado para el factor de retención del R-ketoprofeno (R-KPF):
Diagrama de Pareto estandarizado
Se observa que, de todos los factores estudiados, únicamente el pH y el porcentaje de 2-PrOH son significativos al sobrepasar la línea vertical que muestra la variabilidad estadística. Las otras dos variables (Tampón y TEA) así como las interacciones entre las variables no son significativas. Además indica que ambas variables significativas tienen influencia negativa sobre la respuesta, es decir, que al aumentar el pH o el porcentaje de 2-PrOH disminuye kR-KPF, es decir, se retiene menos.


Hay que destacar de igual manera que las únicas interacciones que aparecen son con el pH (A) ya que, al reducir el número de ensayos, hemos perdido esa información. En este caso, la interacción AB se confunde con la CD, la AC con la BD y la AD con la BC.


Una vez definidas las dos variables más importantes, procedí a optimizarlas mediante un diseño factorial completo de superficie de respuesta, es decir, utilicé un diseño factorial completo (sin fraccionar) en el que cada dimensión tenía más de dos puntos, pudiendo ajustarlos a una curva para modelizar los cambios. Para ello utilicé este diseño 32:

Matriz del diseño factorial completo

En este diseño tampoco se obtuvo ninguna interacción significativa, siendo en la mayoría de los casos únicamente los factores principales como significativos (lo puedes comprobar en los diagramas de Pareto). A partir de estos datos, se realizó una superficie de respuesta para cada respuesta (valga la redundancia), obteniéndose 7 puntos óptimos...

¿Y ahora qué? ¿Cuál de todas es la óptima total? ¿Importan igual todas las respuestas? En este caso se llevó a cabo una optimización multi-respuesta, en la que algunas de las respuestas se obviaron o se ponderaron para dar lugar a un único valor, la deseabilidad. Es esta función la que haremos única para cada punto de la matriz, teniendo, finalmente, una solución por punto y representando la superficie de respuesta obtenida con su ecuación.


Función de deseabilidad

En esta función de deseabilidad, el punto máximo (o mínimo) sería el valor óptimo general aunque no sea el particular de alguna respuesta. Estas superficies de respuesta pueden ser de más de dos dimensiones, resultando las mallas de respuesta, en las que hay más de dos variables y su representación es tridimensional.
Malla de respuesta para la extracción del gel Extraplús

Todos estos resultados han sido obtenidos con el software Statgraphics Centurion XVI. Este software tiene un asistente para el diseño de experimentos que te guía a través de todos los pasos para realizar tu diseño. Lo puedes descargar y probar gratis durante 30 días aquí. Para más teoría recomiendo el libro "Análisis y diseño de experimentos" de Humberto Gutiérrez Pulido y Román de la Vara Salazar. Si no lo encontráis en la biblioteca, es posible encontrarlo en buena calidad por la red (🏝🛳, jou jou).

Hasta aquí el tema de hoy, escogido por la encuesta de Facebook. Como siempre digo, si tienes dudas, quieres comentarios más a fondo o cualquier duda puedes preguntarlo en los comentarios de abajo. También me puedes pedir la tesis completa donde está más explicado y tienes el contexto completo de estos diseños.

Nos vemos la semana que viene!
Cuídate!!

lunes, 27 de noviembre de 2017

Actualidad en Química: ¿Qué es un kilogramo y que va a ser dentro de poco?

Hoy vamos a hablar de "actualidad científica" comentando un tema que no muchos conoceréis: qué es un kilogramo, cómo se mide y que va a pasar con ese kilo en los próximos meses. Vamos a verlo con detalle:

¿Qué es un kilogramo?

El kilogramo, por definición, son mil gramos (gracias Captain Obvious) pero también se define como la masa (que no el peso) de 1000 cm3 de agua pura (un litro, vamos) a 4ºC (en el punto que tiene mínima densidad). Esta definición está concebida para poder ser medida "universalmente" pero en realidad el kilogramo está definido como la masa de un cilindro metálico hecho de una aleación de platino (90%) e iridio (10%) que tiene una altura y un diámetro de 39 milímetros. Este cilindro se encuentra en Sèvres, cerca de París, en la Oficina Internacional de Pesas y Medidas (Bureau International des Poids et Mesures). El problema es que, a causa de los caprichos de la química, hasta un cilindro hecho de platino e iridio puede cambiar de masa con el tiempo.
Por estas razones, todas las unidades básicas (no derivadas de otras, como por ejemplo los km/h) han sido o van a ser redefinidas respecto a su definición inicial, allá por el siglo XIX, con la intención de que su valor pueda ser determinado con más precisión en algunos casos y, en otros, que la medida pueda ser reproducida en cualquier lugar (en muchos casos con instrumental muy sofisticado). Voy a hacer un repaso rápido de las unidades elementales y de los cambios que se van a realizar (o en algunos casos se han realizado) de sus definiciones originales.

Kilogramo (unidad de masa)

Ya he comentado que el kilogramo está definido por un cilindro metálico pero algunos de los prototipos oficiales diseñados a imagen y semejanza de este han ganado hasta 50 microgramos (millonésimas de gramo) en un siglo a causa de la incorporación de moléculas. Pero a partir de la próxima Conferencia General de Pesos y Medidas esto no tendrá importancia: el kilogramo se definirá a través del equilibrio de Watt con su precisa balanza, un experimento que permite comparar la energía mecánica con la electromagnética a través de una corriente y una masa, valiéndose de un láser. Dado que las unidades que definen la corriente eléctrica y el voltaje están definidas en función de constantes fundamentales (velocidad de la luz y constante de Planck), la unidad de masa quedaría también definida en función de constantes absolutas, siendo definido el kilogramo con gran precisión.

Kelvin (unidad de temperatura)

La unidad de temperatura del Sistema Internacional, el Kelvin (no el grado Kelvin), está relacionada con la temperatura y la presión con la cual el agua, el hielo y el vapor de agua coexisten en equilibrio (1/273.16 veces del punto triple del agua, un buen tema para un próximo post). El Kelvin se establecerá a partir de la velocidad del sonido en una esfera resonadora llena de gas en unas circunstancias controladas mediante termometría acústica.

Amperio (unidad de corriente eléctrica)

La definición moderna del amperio, establecida desde 1948, depende de un experimento imaginario en que se genera una fuerza entre dos hilos infinitos al hacer pasar por ellos una corriente eléctrica. En la nueva definición, el amperio será definido por la corriente eléctrica a través de una bomba de electrones superenfriada, que puede medir la carga de un único electrón.

Mol (unidad de materia)

Actualmente, el mol está definido como el número de átomos de carbono 12 (6 protones + 6 neutrones) presentes en 12 g de carbono. Ese número de átomos vendría definido por el número de Avogadro, NA (6,022·1023). Esta unidad será redefinida a partir de una esfera de silicio-28 en la que se contarán sus átomos mediante difracción de rayos X.

Segundo (unidad de tiempo)

Esta unidad ya cambió su definición en la década de los sesenta, a partir de la aparición del reloj atómico. En primer lugar se definió como 1/230400 veces el tiempo de rotación de la Tierra (24 h/dia · 60 min/h · 60 s/min = 230400 s/dia). En el año 1967, los relojes atómicos basados en cesio habían conseguido fiabilidad suficiente como para que la Oficina Internacional de Pesas y Medidas eligiera la frecuencia de vibración atómica como nuevo patrón base para la definición de la unidad de tiempo físico. Según este patrón, un segundo se corresponde con 9 192 631 770 ciclos de la radiación asociada a la transición hiperfina desde el estado de reposo del isótopo de cesio-133, siendo ésta la medida aceptada. La precisión de esta medida es tal que los relojes atómicos, como máximo pueden desviarse un segundo en 3700 millones de años.

Metro (unidad de distancia)

Al metro ya le pasó lo que le va a pasar próximamente al kilogramo, existía una vara de platino e iridio en Sèvres, en la Oficina Internacional de Pesos y Medidas, que fue sustituida por la 
definición actual basada en la distancia recorrida por la luz. En primer lugar, en 1795, se definió el metro como la diezmillonésima parte de la distancia del Polo Norte al ecuador pasando por París (ya que puedo hago que me pase por la puerta de casa, normal). Después, en 1889, para tener una referencia se creo la barra de iridio y platino que hemos comentado y, finalmente, en 1983, se definió el metro como la distancia que recorre la luz en el vacío durante un intervalo de 1/299 792 458 de segundo (casi ná).


Todos estos datos fueron publicados en la revista Nature, donde podréis ver dibujos y más detalles de cómo se van a realizar todas estas medidas (el motivo de no ponerlos aquí es de copyright). Ha habido muchos términos que pueden ser susceptibles de un próximo post (punto triple del agua, estructura hiperfina, el mol, difracción de rayos X, isótopos, etc) y si queréis que desarrolle alguno en un próximo post, por favor dejádmelo en los comentarios ⇩, aquí o en Facebook.


Nos vemos pronto.
Cuídate!

lunes, 20 de noviembre de 2017

¿Qué es la química cuántica?

En el post pasado hablamos de que los electrones estaban ordenados en niveles concretos y que no podían tomar cualquier valor porque están cuantizados. Vamos a ver a qué se refiere eso:

Fracaso de la física tradicional

A principio del siglo XX, los físicos se dieron cuenta que algunos fenómenos no sé podían explicar con la física que se conocía hasta entonces, siendo dos los casos más inexplicables la catástrofe ultravioleta (catástrofe de Rayleigh-Jeans) y el efecto fotoeléctrico.

Curva Planck TT
Catástrofe ultravioleta o de Rayleigh-Jeans
By 4c y Alejo2083 (Own work, based on JPG versión), via Wikimedia Commons
La catástrofe ultravioleta consiste en que, con la mecánica clásica, los espectros de emisión del cuerpo negro en la zona del ultravioleta no se pueden explicar, ya que supondría emisiones de energía infinita. El efecto fotoeléctrico consiste en la emisión de electrones de un material al aplicar luz. Se supone que al poner luz más intensa los electrones deben saltar más fuerte, pero no es así, saltan más pero todos igual de fuerte. Únicamente cambiando el color de la luz se puede variar la fuerza del salto de los electrones.Si quereis más información de estos fenómenos indicádmelo en los comentarios.
Apunte: Einstein fue galardonado con el premio Nobel por su explicación del fenómeno fisico del efecto fotoeléctrico, no por la teoria de la relatividad como muchos piensan. 

Hipótesis de Planck

A principios del siglo XX, Max Planck propuso una idea revolucionaria en el campo de la física, considerar que la energía no es contínua, si no que se se transfiere en pequeños paquetes de energía, denominados cuantos. Además dijo que la energía de estos cuantos depende únicamente de su frecuencia de vibración (veces que vibra por segundo), proporcionando su famosa ecuación:
E=h·v
donde E es la energía, v la frecuencia y h es la constante de Planck, que se puede considerar la energía mínima de cada paquete. Esta constante tiene un valor absurdamente pequeño (6.626·10-34 J·s) y, por eso, en el mundo común se observa esa variación como continua (puede tomar cualquier valor intermedio). Un equivalente sería ver una escalera de un edificio desde el espacio, desde tan lejos la escalera parece una rampa pero según te acercas van apareciendo los escalones, pues aquí pasa algo parecido, al irnos acercando a la escala atómica van apareciendo energías prohibidas (altura donde no hay escalón).

Si unimos esta teoría con la dualidad onda-corpúsculo de de Broglie obtenemos la interesante conclusión de que todo es una onda y que como tales ondas (con una frecuencia asociada) tiene su energía cuantizada. Finalmente, Schrödinger propuso su famosa ecuación para definir una función que describiese ese comportamiento y poder calcular su energía. El cuadrado de esta función (eso que parece un candelabro, que no se poner aquí) permite conocer la probabilidad de encontrar una partícula en un espacio determinado.
{\displaystyle i\hbar {\frac {\partial }{\partial t}}\Psi (\mathbf {r} ,t)={\hat {H}}\Psi (\mathbf {r} ,t)}
Ecuación de Schrödinger
Probablemente, una de las ecuaciones más importantes y reconocibles de la cuántica

Química cuántica: Electrones

La química cuántica se basa en la aplicación de todos estos principios al átomo y a sus uniones, siendo el principal objeto de estudio los electrones. Estos electrones son los que proporcionan la mayoría de las propiedades de un átomo así como su capacidad para combinarse.
Vimos en el post anteriores, que el modelo de Bohr ya suponía que el electrón únicamente podría estar en niveles determinados y no a cualquier distancia del núcleo. También en el post anterior sobre la tabla periódica vimos que los electrones estaban en niveles, subniveles y orientaciones,y además poseen un spin. Vamos a verlo con más detalle y a poner nombres a los números cuánticos de los electrones:

  • Número cuántico principal (n): Indica la energía que tiene un electrón. Puede tomar valores desde 1 a infinito (aunque sólo se conocen hasta 8), siendo 1 el menos energético.
  • Número cuántico secundario o azimutal (l): Indica la forma del orbital (espacio donde se encuentra el electrón). Puede tomar valores entre 0 y (n-1) de uno en uno. Se indican con letras, siendo s para l=0, p para l=1, d para l=2, f para l=3, etc.
  • Número cuántico magnético (m ó ml): Indica la orientación (en algunos casos la forma) de los orbitales. Varía entre l y -l. Cada combinación de l + m da lugar a un orbital con una orientación concreta.
  • Número cuántico de spin (s o ms): Es una propiedad magnética intrínseca al electrón (como la carga es una propiedad eléctrica) que le permite orientarse en presencia de un campo magnético. Tradicionalmente se consideró que el electrón giraba (spin=giro en inglés) pero actualmente se sabe que es una propiedad intrínseca (o sea, no se sabe por qué pero no es porque gire). Toma valores de +1/2 y -1/2.

Veamos un caso concretos:
El átomo de hidrógeno (que sólo tiene 1 electrón) tiende a colocarlo en el nivel más bajo, vamos a ver sus números cuánticos: Al estar en el nivel más bajo su número n=1, lo que implica m=0 y l=0, pudiendo tomar s cualquier valor. Por tanto, los números cuánticos del electrón del hidrógeno son (1,0,0,±1/2). A este orbital se le denomina 1s y a su configuración electrónica 1s1, donde el exponente indica el número de electrones en el orbital.

Estas "definiciones" únicamente sirven para el caso más sencillo, donde no hay interacciones entre los electrones, el átomo de hidrógeno, en el caso del átomo de helio la cosa se complica. Estos electrones interaccionan y necesitan tener spines opuestos para poder ocupar el mismo orbital. Además, en casos más complejos, la acumulación de electrones en orbitales con distinto l puede producir una variación en la energía de los niveles, intercambiando energía entre ellos y apareciendo una diferencia de energía entre ellos. Adicionalmente, por el principio de exclusión de Pauli, no puede haber más de dos electrones con los cuatro números iguales, por lo que si hay dos electrones en el mismo orbital deben tener el spin diferente, y por el principio de máxima multiplicidad de Hund, los electrones no apareados deben tener todos el mismo signo de spin para ser más estables.

El átomo de helio tiene dos electrones, unos con los números (1,0,0,1/2) y otro con los números (1,0,0,-1/2), siendo indistinguibles entre ellos (orbital 1s para ambos y configuración 1s2). Si aportamos suficiente energía como para "subir" uno de los electrones al nivel de arriba, éstos estarían en los orbitales 1s y 2s mientras que sus números cuánticos serían (1,0,0,±1/2) y (1,0,0,±1/2). No me enrollo más en esto porque supongo que es más conocido, si tenéis dudas preguntad abajo en los comentarios por casos más complejos y excepciones.

Química cuántica: Moléculas

El paso más complejo es la formación de moléculas, ya que la molécula más sencilla (H2+, catión dihidrógeno) que únicamente contiene dos núcleos y un electrón ya supone un problema no resoluble por métodos de cálculo, la interacción de tres partículas entre sí. Por esta razón, se propuso la aproximación de Born-Oppenheimer (sale en el primer capítulo de The Big Bang Theory) que supone que los electrones se mueven muchísimo más rápido que los núcleos, por lo que los núcleos parecerían estáticos. Esta aproximación permite mantener los núcleos fijos y trabajar únicamente con el electrón.

En moléculas polielectrónicas, el hecho de que el electrón sea una onda y pueda interactuar con otras, hace que se puedan acoplar, resultando de la interacción de dos orbitales otros dos orbitales, uno con la suma de la interacción y otro con la resta. Esto proporciona dos orbitales (en este caso moleculares, ya no atómicos) en los que uno tiene menos energía que la suma de los dos iniciales (enlazante, se ha estabilizado) y el otro tiene más energía (antienlazante, desestabilizado). Con estos principios se pueden calcular los niveles energéticos de los orbitales y calcular su diferencia de energía. Este es el principio básico de la teoría de orbitales moleculares, la única teoría de enlace aceptada hoy día, lo siento, los puntitos de las teorías de enlace de Lewis son mentira, como muchas de las cosas que visteis en el instituto, intentaremos ir destripándolas poco a poco, hoy ya van dos o tres. Tampoco me quiero meter mucho más en este tema porque su complejidad es alta. . Lo importante de este apartado es que os quedéis que los electrones en las moléculas (y en las redes infinitas) están también cuantizados y puede medirse su energía, proporcionando propiedades como el color o el comportamiento magnético. La teoría de orbitales moleculares es compleja y tiene una fuerte carga matemática detrás por lo que no voy a entrar más a fondo. Si alguien quiere más información, pedid y se os dará.
Diagramas de orbitales moleculares (MOs), a) H2+, b) He2+, c) He2.
Se observa que los iones son estables mientras que la molécula He2 es inestable
Si consideramos que los núcleos no son fijos (y ven a los electrones como una masa que los envuelve) sabemos que los átomos en una molécula vibran y estas vibraciones están cuantizadas. Para su cálculo se emplea el modelo del oscilador armónico, en el que tampoco tengo mucho interés en entrar, pero sabed que las vibraciones están cuantizadas y dan lugar a la absorción de luz en la zona de los infrarrojos ya que corresponde con la energía de estas vibraciones.
De igual manera, las rotaciones están cuantizadas también, casi todo a esta escala lo está, pudiendo modelizarse por el modelo del rotor rígido. Esta diferencia de energía corresponde con la frecuencia de las microondas y la energía de estas rotaciones es la que utiliza tu horno microondas para calentarte el café por las mañanas.

Química cuántica: Núcleos atómicos

De igual manera que los electrones tienen un spin, también lo tienen los protones y los neutrones, haciendo que los núcleos atómicos se puedan orientar dentro de un campo magnético. El hecho de orientarse hace que exista una diferencia de energía de los que se alinean a favor y en contra del campo, siendo medible y cuantificable con campos magnéticos fuertes.
Este principio es el utilizado en la resonancia magnética nuclear (RMN, NMR en inglés) empleado por ejemplo en el diagnóstico clínico (en este caso en particular es imagen por resonancia magnética, IMR). Estas imágenes se obtienen midiendo la diferencia de energía de los núcleos de los hidrógenos del agua, por eso los órganos con más agua se ven más blancos. Si en vez de medir una diferencia de energía medimos todas podemos saber, a partir de experiencias previas, a qué tipo de átomo está enlazado cada hidrógeno. Realmente sólo mide los núcleos de protio, cuyo núcleo contiene únicamente un protón, ya que los núcleos de deuterio, un protón más un neutrón, no dan señal en RMN ya que su spin nuclear es cero. Es por ello que los disolventes utilizados tienen en todos los hidrógenos el isótopo de deuterio, denominándose disolventes deuterados o pesados (cloroformo deuterado o agua pesada, entre otros). Este deuterio tiene una abundancia con respecto al protio de un 0.015%, por lo que casi todo el H es protio, pudiéndose estudiar bien en todos los casos.
Hay más átomos que dan RMN como, por ejemplo, el flúor o el carbono. Debido a que todas las moléculas orgánicas contienen carbono es interesante el estudio del carbono por RMN ya que nos indica a qué grupo funcional pertenece y permite intuir el esqueleto carbonado. También, mediante una secuencia DEPT, permite conocer a cuántos hidrógenos está unido cada carbono.
Por último, reseñar que también existen diagramas de RMN en dos dimensiones que permite conocer qué carbonos o hidrógenos están interaccionando o a qué hidrógenos está unido cada carbono. Si queréis un post de RMN, dejádmelo nuevamente en los comentarios.

Como habréis podido comprobar, este tema es bastante complejo y constituye dos o tres asignaturas de la carrera de ciencias químicas. He intentado hacerlo lo más divulgativo posible, intentando evitar las matemáticas ya que son complejas, pero si quieres que profundice en algún tema indícamelo por cualquiera de los métodos de contacto.
Nos vemos en el próximo post!!
Cuídate!

lunes, 13 de noviembre de 2017

¿Por qué es así la tabla periódica?

Hoy me propongo indagar en las características y propiedades de la tabla periódica, probablemente una de las imágenes más reconocibles de la química. Empezamos!!

¿Qué es la tabla periódica?

La tabla periódica es una representación ordenada de todos los elementos; naturales, artificiales y por descubrir. Actualmente están oficialmente descubiertos 118 elementos, de los cuales 27 (números 43 y 93-118) han sido preparados artificialmente ya que no existen de manera natural por ser demasiado radiactivos.
Tabla periódica de los elementos
El orden de la tabla periódica sigue un criterio de propiedades y estados electrónicos comunes, es decir, los elementos en la misma columna tienen propiedades comunes como, por ejemplo, los estados de oxidación mientras que, en la misma fila comparten masas comunes y energías parecidas.
Tabla periódica de los estados de oxidación
http://www.compoundchem.com/2015/11/17/oxidation-states/
En esta tabla periódica se observa que en la misma columna suelen coincidir muchos estados de oxidación. Esto es debido a que, en la misma columna, el número de electrones y su organización es igual (aunque no su energía). Debido a que la carga del núcleo (número de protones) no es constante, si no que varía poco a poco, hace que la fuerza de atracción de estos electrones varíe poco a poco. Esto supone que otras propiedades asociadas, como el radio atómico, energías de ionización o electronegatividad, varíen de manera periódica a través del diagrama dependiendo de la carga nuclear que "vean".
Periodicidad en la tabla periódica, valga la redundancia
http://www.compoundchem.com/2014/02/12/periodicity-trends-in-the-periodic-table/
Se puede observar en estos cuatro diagramas que las propiedades varían poco a poco tanto en las filas como en las columnas, lo que supone que dos elementos tienen propiedades parecidas si se encuentran cerca en la tabla periódica.

¿Por qué tiene esa forma?

La forma de la tabla periódica es una representación gráfica de ordenar los elementos, es un artificio para entendernos todos. Esta ordenación responde bastante bien a la ordenación del llenado de los orbitales por los electrones que, al fin y al cabo, son quienes proporcionan la mayoría de las propiedades.
Como muchos recordareis de vuestra época de secundaria y del blog del átomo (modelo de Bohr), existen diferentes niveles de energía donde se puede colocar un electrón, siendo el nivel 1 el más bajo y creciendo según crece la energía (recuerda que la energía no es continua si no que son pisos en un edificio, cada número es un piso). Posteriormente, estos pisos se dividieron en escalones, teniendo cada piso tantos escalones como el número del piso, es decir, cada nivel electrónico tiene tantos niveles magnéticos como su número de nivel (entra dentro de la teoría de Bohr pero se explotó mayoritariamente en la teoría mecano-cuántica). Los niveles magnéticos se denominaron con letras (s, p, d, f...) dependiendo de su forma.
Forma de los orbitales
http://tetracuties.blogspot.com.es/2011/04/electronic-structure-of-atom.html
La forma implica que tienen 0, 1, 2 o 3 planos prohibidos que cortan la nube, dando lugar a formas con 1, 2, 4 u 8 lóbulos, siendo el s el más sencillo (todos tienen) luego el p (todos tienen menos el nivel 1), luego el d (lo tienen todos menos el 1 y el 2) y así sucesivamente.
Además de variar en la forma, cuanto más sencillos son menos energía tienen, de manera que dentro de un nivel se llenarán antes los niveles s que los p, y éstos antes que los d, ya que son más estables. Este hecho hace que en niveles altos la energía de un nivel s superior pueda ser más baja que, por ejemplo un nivel d o f inferior. El orden de energía, y por tanto de llenado de los orbitales (aunque hay excepciones), se muestra en los diagramas inferiores.
Niveles de energía
http://quantumnumbers.weebly.com/electron-configuration.html
Orden de llenado de orbitales
https://chem.libretexts.org/LibreTexts/Mount_Royal_University/Chem_1201/
Unit_2._Periodic_Properties_of_the_Elements/2.02%3A_Electron_Configurations

Una vez que ya conocemos como se ordenan los niveles, hay que ver cómo se orientan en el espacio. El nivel s es una esfera, por lo que todas las orientaciones son equivalentes, sólo tiene una orientación y un único subnivel. El nivel p tiene 3 posibles orientaciones en el espacio, orientado en el eje x, en el y, y en el z, resultando 3 niveles de igual energía. El nivel d tiene 5 orientaciones en el espacio, resultando 5 subniveles. El nivel f tiene 7 orientaciones y 7 subniveles.
Forma y nomenclatura de los orbitales
https://chem.libretexts.org/Core/Physical_and_Theoretical_Chemistry/Quantum_Mechanics/
09._The_Hydrogen_Atom/Atomic_Theory/Electrons_in_Atoms/Electronic_Orbitals

Para acabar de complicar las cosas, en cada subnivel entran 2 electrones, es decir en cada nivel s entran 2 electrones, en cada nivel p entran 6 electrones (3 niveles x 2 electrones) y así sucesivamente.

¿Y que tiene que ver todo este rollo con la tabla periódica? 

Pues si nos volvemos a fijar en la tabla periódica, hay varias zonas diferenciadas, llamadas bloques, que corresponden a los orbitales y observándose que el número atómico corresponde al llenado de electrones (salvo excepciones menores).
Bloques electrónicos en la tabla periódica
https://chem.libretexts.org/LibreTexts/University_of_Missouri/UM%3A_Chem_1320_(Keller)/
06._Electronic_Structure_of_Atoms/6.9%3A_Electron_Configurations_and_the_Periodic_Table
Hay que comentar que el la tabla anterior los bloques 4f y 5f estarían colocados por orden de llenado entre los bloques 6s-5d y 7s-6d, respectivamente. También llama la atención que el He está colocado fuera del bloque s, ya que sus propiedades no coinciden con su columna "teórica" y se corresponden mejor con las propiedades de los gases nobles. De igual manera hay a veces cierta duda en dónde colocar el H si en el grupo 1 o 17, ya que su comportamiento es bastante singular, pero por convenio está colocado en el grupo 1.

Una vez entendido esto de las configuraciones electrónicas podemos ver que los elementos en la misma columna tienen, efectivamente, los mismos electrones en el último nivel y, por tanto, tienden a perder/atrapar los mismos electrones (valencias).

Conclusión

Sin entrar demasiado en detalles, hemos visto que el orden en la tabla periódica y su forma tienen un porqué y cómo se organizan los electrones en el átomo, en un montón de subniveles. Es importante conocer la tabla periódica, qué implica que un elemento esté en una posición concreta. Como muchos dicen, es importante conocer la tabla periódica ya que es como el alfabeto de un químico (aunque realmente no se suelen usar muchos mas de 10 elementos habitualmente).

Nos vemos en el próximo post!!
Cuídate!!

lunes, 6 de noviembre de 2017

Tutorial Blender 1: Cómo hacer un matraz erlenmeyer

Hoy traigo algo diferente, Blender, un programa para modelar en 3D que os servirá para muchas cosas, desde crear modelos estáticos de cosas que os gusten, hacer animaciones, crear juegos, simular fluidos, tejidos, etc. Por supuesto, sirve para modelar moléculas, proteínas y un montón de cosas que os puede servir para trabajos, tesis y más. Es un programa muy completo, gratuito y muy potente. Os lo podéis descargar de manera gratuita en la página oficial de Blender.

En el videotutorial de hoy  explico muy rápidamente cómo es Blender y haremos un matraz erlenmeyer de una manera rápida y fácil. Si quieres más tutoriales me lo puedes indicar en los comentarios⇩, en Facebook o en Youtube 👍. Antes de nada, pido disculpas por el audio. El micro que tengo no es muy bueno, trabajaré en ello. A lo largo de la semana intentaré poner subtitulos por si alguien los necesita.




Me despido por hoy sin olvidarme de darle el mérito de la música a No Mark!, un grupo muy bueno y prometedor. También tienen canal en Youtube donde suben los videoclips de sus temazos, algunos muy currados. Échale un ojo y no te arrepentirás.

Nos vemos pronto!!
Cuídate!!

PD: Para aquellos que quieran saber más (por si no hay más tutoriales) pueden seguir el Canal Blender o a Blender Guru (en inglés), más recomendado éste ultimo. En ambos hay tutoriales desde cero.


lunes, 30 de octubre de 2017

Sostenibilidad energética

Debido al alto valor que alcanzó el precio de la energía eléctrica en España la semana pasada, hoy me dispongo a comentar mi opinión sobre este tema. Empezamos!!

Energía eléctrica


Aunque la energía no se crea ni se destruye, hay maneras de desaprovechar gran parte de la energía que generamos. De hecho, una gran cantidad de energía consumida por la población es desaprovechada, mayoritariamente en forma de calor. Esta energía también se genera y se paga.

Este calor se puede observar en que los aparatos eléctricos se calientan (principalmente por efecto Joule),por ejemplo, una tele, un teléfono móvil, un ordenador una bombilla o el motor de un coche. Habitualmente este calor es disipado, es decir, el aire del entorno enfría la fuente de calor, llevándose consigo esta energía generada. Un sistema de enfriamiento no siempre hace que nuestro proceso energético sea más eficiente ya que, por ejemplo, el líquido refrigerante de un ordenador, de un coche o el gas del aire acondicionado únicamente "transportan" ese calor a otro sitio donde con ayuda de un radiador y un ventilador es disipado con aire. En definitiva, todos los aparatos eléctricos empleados hoy en día (con extremas excepciones que comentaremos) no son 100% eficientes energéticamente. Siempre hay que aportarle más energía de la que es capaz de transformar.

¿Y cómo se puede ser más eficiente?

La mayoría de los aparatos eléctricos y electrónicos no pueden ser modificados para rebajar su consumo y en muchos casos puede ser incluso perjudicial. Hay varias maneras de ser energéticamente eficiente más allá de coja transporte público, llene sus electrodomésticos, apague las luces cuando no esté, desenchufe los aparatos eléctricos con standby, etc. Estoy hablando de cambios puntuales que pueden suponer un ahorro del 90% en algunos casos en su consumo y, finalmente, en la factura de la luz (que es lo que realmente nos importa, el hecho de desaprovechar la energía hoy en día es casi innata al ser humano).

Compra artículos energéticamente eficientes: ¡Qué listo! Ya lo había pensado.


Pues resulta que hay mucho más detrás que la eficiencia energética, principalmente hay un dinero importante al cabo del año en la factura de la luz. Y no sólo me refiero al frigorífico, lavadora o lavavajillas, si no al gran olvidado en la mayoría de las casas y que más en uso está: las bombillas (y la iluminación en general).

¿Te has preguntado alguna vez por qué en las cocinas y cuartos de baño generalmente no hay bombillas,como en el resto de la casa? Y viceversa. Esto se debe a que generalmente son espacios donde se pasan tiempos relativamente grandes (cocinar, ducharse, etc.) y las bombillas tradicionales no son la mejor opción. La opción de hace 10 años era un tubo fluorescente (el fluorescente de la cocina y el baño de siempre, vamos). Este tubo tradicional es más eficiente energéticamente que las bombillas de filamento para sitios con largas estancias (por ejemplo, lugares de trabajo, hospitales...) mientras que son muy poco eficientes para lugares con un tránsito corto e irregular de gente, por ejemplo, el pasillo de tu casa.

¿Por qué esa diferencia de eficiencia? Todo proviene del mecanismo que tienen ambos dispositivos de generar luz. ¿Y las bombillas de bajo consumo? También vamos a ver los mecanismos de todas las opciones que conozco de iluminación del mercado (si sabes alguna más déjamelo abajo⇩ en los comentarios y lo añadiré como postdata):
  • Las bombillas tradicionales, de filamento, emiten luz por el principio de emisión del cuerpo negro: Todo objeto caliente emite luz, el color depende de su temperatura. Para emitir luz visible tiene que estar muy caliente, cerca de los 1000ºC, por ello se ha venido usando el wolframio, con un punto de fusión superior a 3400ºC, en una ampolla de cristal a vacío o rellena de un gas inerte, para que no se queme el filamento. Tienen una característica luz amarillenta debido a que al cuerpo negro le cuesta emitir el violeta, el más energético. Debido a la falta de violeta se ve amarillento. Tienen una eficiencia energética inferior al 10%. En este grupo también entrarían las lámparas halógenas, que contienen algún haluro metálico (combinación de metales con flúor, cloro, bromo o yodo; habitualmente cloro) que permiten alcanzar mayores temperaturas y obtener luces más blancas.
  • Los fluorescentes, bombillas de bajo consumo y faros de xenón de los coches funcionan como lámparas de descarga. Estas lámparas consisten en un tubo relleno de un gas a baja presión (en los fluorescentes es mercurio, por eso mejor si se rompe uno ventilar rápido, en las de xenón es xenón y en carteles publicitarios son otros gases nobles habitualmente) recubiertos en algunos casos de sales de metales. El gas del interior es ionizado por una descarga y al recombinarse emiten luz (generalmente ultravioleta). Las sales del recubrimiento, por el fenómeno de la fluorescencia, transforman esta luz ultravioleta en luz visible. El color, más blanco o más amarillento, depende del recubrimiento de sales. Su eficiencia energética es ligeramente superior al 50%.
  • Las luces LED (Light-Emitting Diode) son la forma de iluminación más eficiente por el momento, llegando a una eficiencia energética del 90%. Funcionan por un proceso luminiscente al aplicar corriente a un sólido, pero no por efecto Joule como las bombillas tradicionales; de hecho, las lámparas LED apenas se calientan. También son muy usadas en pantallas planas o de teléfonos móviles, reemplazando cada vez más a las antiguas LCD (Liquid Christal Display, o pantallas de cristal líquido).
Conclusión de este primer punto: El cambiar las bombillas tradicionales por LED, aunque son más caras, tienen una eficiencia energética casi 10 veces superior, es decir, gastaremos hasta 10 veces menos en electricidad empleada en iluminar con esos dispositivos.

Movilidad eléctrica

Este tema todavía es un tabú en muchos países debido a intereses económicos, pero la idea de ahorrar dinero está ahí. El hecho de moverse en vehículos eléctricos en vez de en vehículos de combustión interna supone, además de la mejora en la calidad del aire, un ahorro para el bolsillo. Es destacable la falta de interés del vehículo eléctrico por el público en general, no siendo consciente en la mayoría de los casos de los beneficios que aporta.
Hay distintos tipos de vehículos con motores eléctricos, desde los vehículos híbridos que pueden emplear ambos motores según necesidades hasta vehículos enchufables o de pila de hidrógeno. Vamos a verlos con calma cada tipo:

  • Vehículos híbridos: Tienen tanto motor eléctrico como de combustión interna. El motor eléctrico se alimenta de una batería cargada por el motor de combustión interna o por un sistema de recuperación de energía en las frenadas (similar al KERS o MGU-K de la Fórmula 1). Pueden usar ambos motores para mover las ruedas y el consumo de gasolina y electricidad varía dependiendo del tiempo de uso de cada motor. También existen modelos híbridos enchufables que se pueden cargar a la red.
  • Vehículos de autonomía extendida: Son vehículos propulsados únicamente por un motor eléctrico pero tienen un pequeño motor de combustión que sirve para cargar la batería. Su consumo es mucho menor que el híbrido ya que el motor no necesita generar energía para mover el coche.
  • Coches eléctricos (enchufables): Estos coches carecen de motor de combustión interna y únicamente se mueven con motores alimentados por una batería que se alimenta a través de la luz eléctrica. La marca más reconocida de este tipo de vehículos es Tesla Motors, aunque muchas otras marcas tradicionales de automoción como Nissan o BMW están comercializando modelos 100% eléctricos. Con este tipo de vehículos hay que cambiar el concepto que tenemos para conducirlo: hay que cambiar el cuando se me gaste la gasolina en 2 minutos tengo el tanque lleno y puedo seguir circulando a una mentalidad más parecida a la que tenemos con los teléfonos móviles, en cuanto no lo esté utilizando lo tengo que enchufar para que esté siempre lleno, ya que la carga del 100% de la batería en un enchufe tradicional de 220V puede llegar a tardar 24 h. La posible contaminación de este vehículo procede de la generación de la energía eléctrica, muchas veces generada con combustibles fósiles. Con respecto al consumo, os dejo un vídeo del propietario de un Tesla que explica lo que le cuesta la energía en su vehículo:



  • Vehículos con pila de combustible: Son vehículos que funcionan con hidrógeno, "quemándolo" y transformándolo en agua. Este vehículo no generaría ningún tipo de residuo si se pudiese generar hidrógeno en ausencia de electricidad. Otro problema intrínseco a este tipo de vehículos es el problema del hidrógeno, ya que es extremadamente explosivo y el manejo y/o posibles accidentes viales pueden ser catastróficos.
Conclusión del segundo punto: La movilidad eléctrica es la alternativa actual a los combustibles fósiles y, debido a los altos niveles de contaminación registrados estos días, se espera que los combustibles tradicionales vayan desapareciendo gradualmente, no sólo por el hecho de la sostenibilidad energética si no por la contaminación generada, especialmente por los vehículos diésel. También este es un tema en el que las compañías petrolíferas tienen demasiados intereses como para dejar que la transición transcurra rápidamente.

Generación de energía eléctrica sostenible

La generación de energía eléctrica es el punto clave en los apartados anteriores: si la electricidad se genera de manera poco sostenible el resto de los pasos son poco sostenibles. Existen alternativas poco conocidas a las centrales de quema de combustibles fósiles o nucleares de fisión que pueden generar energía eléctrica sin apenas huella en el medio. Comento de manera breve las más importantes:
  • Energía hidroeléctrica: Generada mediante la caída de agua en una presa. Presenta la desventaja de que es necesario inundar un valle, con la pérdida de biodiversidad y la necesidad de desplazar a la gente de sus pueblos para inundarlos. Además, en épocas de sequía, no se puede utilizar debido a las restricciones para mantener el agua de la población. La principal ventaja es que el exceso de energía de la red se puede aprovechar fácilmente volviendo a bombear agua a la parte superior de la presa para generar nuevamente energía.
  • Energía eólica: Consiste en generar energía moviendo las aspas de un molino con el viento. El viento es más raro que deje de soplar durante muchos días, a si que en principio no hay tantas restricciones. Además la superficie que ocupa el "campo de molinos" puede ser utilizado como pasto para el ganado u otro tipo de actividades. La desventaja con la anterior es la imposibilidad de acumular el exceso de energía excepto en grandes acumuladores al pie o dentro de los propios molinos.
  • Energía undimotriz: Energía generada con el movimiento de las olas (será por kilómetros de costa para instalarlo!!). Es una energía ilimitada, funciona siempre y no molesta a prácticamente ninguna actividad humana si se eligen correctamente las localizaciones. La corrosión de los materiales por el agua del mar y lo complejo del mantenimiento suponen las desventajas de este tipo de energía, usada con éxito en Portugal. Os dejo un vídeo de la FECYT que lo explica un poco mejor:



    • Energía nuclear de fusión: Actualmente la panacea de la energía limpia. Emplea el mecanismo energético con el que funciona el Sol,  la fusión de átomos de deuterio (hidrógeno con dos neutrones) y tritio (hidrógeno con dos neutrones) para formar helio y sobra un neutrón con energía suficiente para provocar una reacción en cadena. El deuterio y el tritio se obtendrían del agua con la energía que produce la central y sobraría energía para otros usos. Como ventaja principal es muchísima energía sin ningún tipo de residuos, ya que el único producto es helio. El único problema es tecnológico, cómo controlar un plasma de millones de grados. Por ello se va a construir una central de prueba.
    • Energía solar: Aunque hay dos tipos de energía solar, vamos a centrarnos en la energía solar fotovoltaica, la energía solar de concentración para calentar agua, ya sea en espejos cóncavos o en torre no es tan viable para espacios sin extensas praderas como una ciudad. Los paneles fotovoltaicos pueden colocarse en todos los tejados de los edificios, cobertizos, centros comerciales y todo tipo de edificios, proporcionando, en la mayoría de los casos, energía suficiente para el consumo diario del edificio. La energía sobrante durante el día puede acumularse en baterías colocadas estratégicamente en los edificios. Uno de los mejores lugares es dentro de las paredes, ya que no perturban en el hogar y pueden almacenar la energía suficiente para un día. El mejor ejemplo, es el Powerwall, nuevamente de Tesla. Además de las placas fotovoltaicas tradicionales, Tesla ha desarrollado unas placas con forma de tejas normales para casas individuales que, a simple vista, son indistinguibles de las tradicionales, garantizadas de por vida.
    Conclusión del tercer punto: La dependencia de las energías no renovables tradicionales (combustibles fósiles y fisionables) es cada vez menor, existiendo nuevas alternativas no contaminantes. Hoy en día todo depende de la voluntad de las compañías eléctricas de abandonar los caminos tradicionales y pensar un poco en el Planeta.

    Después de toda esta información, me gustaría saber vuestra opinión sobre todo este tema de eficiencia energética y movilidad y generación sostenible. He dejado bastantes enlaces para los que quieran más información. Nos vemos la semana que viene!!