Estadistica y Quimica
-
Upload
fernando-acosta -
Category
Documents
-
view
24 -
download
3
Transcript of Estadistica y Quimica
La teoría de conjuntos es una rama de las matemáticas que estudia las propiedades de
los conjuntos. Los conjuntos son colecciones abstractas de objetos, consideradas como objetos
en sí mismas, y son una herramienta básica en la formulación de cualquier teoría matemática.
Más aún, la teoría de los conjuntos es lo suficientemente rica como para construir el resto de
objetos y estructuras de interés en matemáticas: números, funciones, figuras geométricas, ...; y
junto con la lógica permite estudiar los fundamentos de esta. En la actualidad se acepta que el
conjunto de axiomas de la teoría de Zermelo-Fraenkel es suficiente para desarrollar toda la
matemática. La propia teoría de conjuntos es objeto de estudio per se, no sólo como
herramienta auxiliar, en particular las propiedades y relaciones de los conjuntos infinitos.
En esta disciplina es habitual que se presenten casos de
propiedades indemostrables o contradictorias, como la hipótesis del continuo o la existencia de
un cardinal inaccesible. Por esta razón, los razonamientos y técnicas de la teoría de conjuntos
se apoyan en gran medida en la lógica matemática.
El desarrollo histórico de la teoría de conjuntos se atribuye a Georg Cantor, que comenzó a
investigar cuestiones conjuntistas "puras" en la segunda mitad del siglo XIX, precedido por
algunas ideas de Bernhard Bolzano e influenciado porRichard Dedekind. El descubrimiento de
las paradojas de la teoría cantoriana de conjuntos propició los trabajos de Bertrand
Russell, Ernst Zermelo, Abraham Fraenkel y otros a principios del siglo XX.
Contenido
[ocultar]
1 Teoría básica de conjuntos
2 Teoría axiomática de conjuntos
3 Véase también
4 Bibliografía
5 Enlaces externos
[editar]Teoría básica de conjuntos
Artículos principales: Conjunto y Álgebra de conjuntos
La teoría de conjuntos más elemental es una de las herramientas básicas del lenguaje
matemático. Dados unos elementos, unos objetos matemáticos —
como números o polígonos por ejemplo—, puede imaginarse una colección determinada de
estos objetos, un conjunto. Cada uno de estos elementos pertenece al conjunto, y esta noción
de pertenencia es la relación relativa a conjuntos más básica. Los propios conjuntos pueden
imaginarse a su vez como elementos de otros conjuntos. La pertenencia de un elemento a a un
conjunto A se indica como a ∈ A.
Una relación entre conjuntos derivada de la relación de pertenencia es la relación de inclusión.
Una subcolección de elementos B de un conjunto dado A es un subconjunto de A, y se indica
como B ⊆ A.
Ejemplos.
Los conjuntos de números más usuales en matemáticas son el conjunto de los números
naturales N, el de los números enteros Z, el de los números racionales Q, el de
los números reales R y el de los números complejos C. Cada uno es subconjunto del
siguiente:
El espacio tridimensional E3 es un conjunto de objetos elementales
denominados puntos p, p ∈ E3. Las rectas r y planos α son conjuntos de puntos a su vez, y
en particular son subconjuntos de E3, r ⊆ E3 y α ⊆ E3.
Existen unas operaciones básicas que permiten manipular los conjuntos y sus elementos,
similares a las operaciones aritméticas, constituyendo el álgebra de conjuntos:
Unión. La unión de dos conjuntos A y B es el conjunto A ∪ B que contiene todos los
elementos de A y de B.
Intersección. La intersección de dos conjuntos A y B es el conjunto A ∩ B que contiene
todos los elementos comunes de A y B.
Diferencia. La diferencia entre dos conjuntos A y B es el conjunto A \ B que contiene todos
los elementos de A que no pertenecen a B.
Complemento. El complemento de un conjunto A es el conjunto A∁ que contiene todos los
elementos que no pertenecen a A.
Diferencia simétrica de los conjuntos A y B es la unión de A\B y de B\A. Con esta
operación el conjunto potencia de S forma un grupo y con la intersección, un anillo.
Producto cartesiano. El producto cartesiano de dos conjuntos A y B es el
conjunto A × B que contiene todos los pares ordenados (a, b) cuyo primer (segundo)
elemento pertenece a A (a B).
[editar]Teoría axiomática de conjuntos
La teoría de conjuntos "informal" o "elemental" apela a la intuición para determinar como se
comportan los conjuntos. Sin embargo, es sencillo plantear cuestiones acerca de las
propiedades de estos que llevan a contradicción si se razona de esta manera, como la
famosa paradoja de Russell. Históricamente esta fue una de las razones para el desarrollo de
lasteorías axiomáticas de conjuntos, siendo otra el interés en determinar exactamente qué
enunciados acerca de los conjuntos necesitan que se asuma el polémico axioma de
elecciónpara ser demostrados.
Las teorías axiomáticas de conjuntos son colecciones precisas de axiomas escogidos para
poder derivar todas las propiedades de los conjuntos con el suficiente rigor. Algunos ejemplos
conocidos son:
La teoría de conjuntos de Zermelo-Fraenkel
La teoría de conjuntos de Neumann-Bernays-Gödel
Estadística
(Redirigido desde Estadistica y Probabilidad)
Para análisis, datos y gráficas sobre Wikipedia, véase Wikipedia:Estadísticas.
La estadística es una ciencia que estudia la recolección, análisis e interpretación de datos, ya
sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares
de algún fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin
embargo estadística es más que eso, en otras palabras es el vehículo que permite llevar a cabo
el proceso relacionado con la investigación científica.
Distribución normal.
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales,
desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de decisiones en
áreas de negocios o institucionesgubernamentales.
La estadística se divide en dos grandes áreas:
La estadística descriptiva, se dedica a los métodos de recolección, descripción,
visualización y resumen de datos originados a partir de los fenómenos de estudio. Los
datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos de parámetros
estadísticos son: la media y la desviación estándar. Algunos ejemplos gráficos
son: histograma, pirámide poblacional, clústers, entre otros.
La estadística inferencial, se dedica a la generación de los modelos, inferencias y
predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de
las observaciones. Se usa para modelar patrones en los datos y extraer inferencias acerca
de la población bajo estudio. Estas inferencias pueden tomar la forma de respuestas a
preguntas si/no (prueba de hipótesis), estimaciones de características numéricas
(estimación),pronósticos de futuras observaciones, descripciones de asociación
(correlación) o modelamiento de relaciones entre variables (análisis de regresión). Otras
técnicas de modelamiento incluyen anova, series de tiempo y minería de datos.
Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay también una
disciplina llamadaestadística matemática, la que se refiere a las bases teóricas de la materia.
La palabra «estadísticas» también se refiere al resultado de aplicar un algoritmo estadístico a
un conjunto de datos, como en estadísticas económicas, estadísticas criminales, entre otros.
Probabilidad
La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de
resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados
posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa
extensamente en áreas como la estadística, la física, la matemática, la ciencia y
la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica
subyacente de sistemas complejos.
Historia
Véase también: Estadística
El diccionario de la Real Academia Española define «azar» como una casualidad, un caso
fortuito, y afirma que la expresión «al azar» significa «sin orden».1 La idea de Probabilidad está
íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de
ganar un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirmó: "Es notable que
una ciencia que comenzó con consideraciones sobre juegos de azar haya llegado a el objeto
más importante del conocimiento humano". Comprender y estudiar el azar es indispensable,
porque la probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito.2
Según Amanda Dure, "Antes de la mitad del siglo XVII, término 'probable' (en latín probable)
significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción.
Una acción u opinión probable era una que las personas sensatas emprenderían o
mantendrían, en las circunstancias."3
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI,
la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise
Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más
temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of
Chances(1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas.
Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para
una historia de los inicios del desarrollo del propio concepto de probabilidad matemática.
La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo,
1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa
en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La
reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y
negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales
se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la
probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación
de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley
de la probabilidad de error con una curva y = ϕ(x), siendo x cualquier error e y y su probabilidad,
y expuso tres propiedades de esta curva:
1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula
para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a
ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de
las probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en
su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para
la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un
escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por
primera vez la ley de facilidad de error,
siendo c y h constantes que dependen de la precisión de la observación. Expuso dos
demostraciones, siendo la segunda esencialmente la misma de John
Herschel (1850). Gaussexpuso la primera demostración que parece que se conoció en
Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se
expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen
(1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870).
Otros personajes que contribuyeron fueron Ellis (1844), De
Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters
(1856) para r, el error probable de una única observación, es bien conocida.
En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre
Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860),
Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De
Morgan y George Boole mejoraron la exposición de la teoría.
En 1930 Andréi Kolmogorov desarrolló la base axiomática de la probabilidad utilizando
teoría de la medida.
En la parte geométrica (véase geometría integral) los colaboradores de The Educational
Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas
Martin).
[editar]Teoría
Artículo principal: Teoría de la probabilidad
La probabilidad constituye un importante parámetro en la determinación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango
estadístico.
Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y
la teoría de la relatividad numérica, esta última con un alto grado de aceptación si se toma
en cuenta que disminuye considerablemente las posibilidades hasta un nivel mínimo ya
que somete a todas las antiguas reglas a una simple ley de relatividad.[cita requerida]
La probabilidad de un evento se denota con la letra p y se expresa en términos de una
fracción y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la
probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de p y se denota
con la letra q:
Los tres métodos para calcular las probabilidades son la regla de la adición, la regla
de la multiplicación y la distribución binomial.
[editar]Regla de la adición
La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia
de cualquier evento en particular es igual a la suma de las probabilidades
individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos
no pueden ocurrir al mismo tiempo.
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B)
= P(A) + P(B) − P(A y B) si A y B son no excluyentes. Siendo: P(A) = probabilidad de
ocurrencia del evento A. P(B) = probabilidad de ocurrencia del evento B. P(A y B) =
probabilidad de ocurrencia simultanea de los eventos A y B.
[editar]Regla de la multiplicación
La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o
más eventos estadisticamente independientes es igual al producto de sus
probabilidades individuales.
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) =
P(A)P(B|A) si A y B son dependientes
[editar]Distribución binomial
La probabilidad de ocurrencia de una combinación específica de eventos
independientes y mutuamente excluyentes se determina con la distribución binomial,
que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o
si/no.
1. Hay dos resultados posibles mutuamente excluyentes en cada ensayo u
observación.
2. La serie de ensayos u observaciones constituyen eventos independientes.
3. La probabilidad de éxito permanece constante de ensayo a ensayo, es decir
el proceso es estacionario.
Para aplicar esta distribución al calculo de la probabilidad de obtener un número
dado de éxitos en una serie de experimentos en un proceso de Bermnoulli, se
requieren tres valores: el número designado de éxitos (m), el número de ensayos y
observaciones (n); y la probabilidad de éxito en cada ensayo (p). Entonces la
probabilidad de que ocurran m éxitos en un experimento de n ensayos es: P (x = m)
= nCm Pm(1−P)n−m Siendo nCm el número total de combinaciones posibles de m
elementos en un con junto de n elementos. En otras palabras P(x = m) = m!/{m!
(n−m)!}pm(1−p)n−m
Ejemplo. La probabilidad de que un alumno apruebe la asignatura Calculo de
Probabilidades es de 0,15. Si en un semestre intensivo se inscriben 15 alumnos
¿Cuál es la probabilidad de que aprueben 10 de ellos? P(x = 10) =
15C10(0,15)10(0,85)5 = 10!/{10!(15−10)!}(0,15)10(0,85)5 = 7,68 * 10−6
Generalmente existe un interés en la probabilidad acumulada de "m o más " éxitos o
"m o menos" éxitos en n ensayos. En tal caso debemos tomar en cuenta que: P(x <
m) = P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x =m− 1) P(x > m) = P(x =m+ 1) + P(x
=m+ 2) + P(x = m+3) +....+ P(x =n) P(x < m) = P(x = 1) + P(x = 2) + P(x = 3) +....+
P(x =m) P(x > m) = P(x = m) + P(x =m+1) + P(x =m+2) +....+ P(x =n)
Supongamos que del ejemplo anterior se desea saber la probabilidad de que
aprueben: a.− al menos 5 b.− mas de 12 a.− la probabilidad de que aprueben al
menos 5 es P(x < 5) es decir que P(x < 5) = P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)+P(x
= 5) P(x < 5) = 0,2312 + 0,2856 + 0,2184 + 0,1156 + 0,045 = 0,8958 b.− la
probabilidad de que aprueben mas de 12 es P(x > 12) es decir que P(x > 12) = P(x =
13)+P(x = 14)+P(x = 15) P(x > 12) = 1,47 *10−9 +3,722 *10−11 +4,38 *10−13 =
1,507 *10−9 La esperanza matemática en una distribución binomial puede
expresarse como E(x) = ðnp Y la varianza del número esperado de éxitos se puede
calcular directamente: Var(x) = np(1−p)
[editar]Aplicaciones
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el
análisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican métodos probabilísticos en regulación
ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el
bienestar usando métodos que son estocásticos por naturaleza, y escogen qué
proyectos emprender basándose en análisis estadísticos de su probable efecto en la
población como un conjunto. No es correcto decir que la estadísticaestá incluida en
el propio modelado, ya que típicamente los análisis de riesgo son para una única vez
y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la
probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas
aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de
las medidas probabilísticas un tema político.
Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto
generalizado sobre los precios del petróleo en Oriente Medio - que producen un
efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias
primas en que la guerra es más probable en contra de menos probable
probablemente envía los precios hacia arriba o hacia abajo e indica a otros
comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan
independientemente y tampoco son necesariamente muy racionales. La teoría de
las finanzas conductuales surgió para describir el efecto de este pensamiento de
grupo en el precio, en la política, y en la paz y en los conflictos.
Se puede decir razonablemente que el descubrimiento de métodos rigurosos para
calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la
sociedad moderna. Por consiguiente, puede ser de alguna importancia para la
mayoría de los ciudadanos entender cómo se calculan los pronósticos y las
probabilidades, y cómo contribuyen a la reputación y a las decisiones,
especialmente en una democracia.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en
la fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de
consumo, utilizan lateoría de la fiabilidad en el diseño del producto para reducir la
probabilidad de avería. La probabilidad de avería también está estrechamente
relacionada con la garantía del producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es,
el grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber
una probabilidad de 1 entre 52 de que la primera carta en un baraja sea la J de
diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la
probabilidad es o bien 100% ó 0%, y la elección correcta puede ser hecha con
precisión por el que ve la carta. La física moderna proporciona ejemplos importantes
de situaciones determinísticas donde sólo la descripción probabilística es factible
debido a información incompleta y la complejidad de un sistema así como ejemplos
de fenómenos realmente aleatorios.
En un universo determinista, basado en los conceptos newtonianos, no hay
probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la
fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número
donde la bola parará será seguro. Naturalmente, esto también supone el
conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la
bola, las variaciones en la velocidad de la mano durante el movimiento y así
sucesivamente. Una descripción probabilística puede entonces ser más práctica que
la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos
repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría
cinéticade los gases, donde el sistema determinístico en principio, es tan complejo
(con el número de moléculas típicamente del orden de magnitud de la constante de
Avogadro ) que sólo la descripción estadística de sus propiedades es
viable.
La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo
puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le
da una gran importancia a las descripciones probabilísticas. Algunos científicos
hablan de la expulsión del paraíso.[cita requerida] Otros no se conforman con la pérdida
del determinismo. Albert Einstein comentó estupendamente en una carta a Max
Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de
que Dios no tira el dado). No obstante hoy en día no existe un medio mejor para
describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha
gente hoy en día confunde el hecho de que la mecánica cuántica se describe a
través de distribuciones de probabilidad con la suposición de que es por ello un
proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de
que siga procesos aleatorios sino por el hecho de no poder determinar con precisión
sus parámetros fundamentales, lo que imposibilita la creación de un sistema de
ecuaciones determinista.
[editar]Investigación biomédica
Véase también: Muestreo en estadística
La mayoría de las investigaciones biomédicas utilizan muestras de probabilidad, es
decir, aquellas que el investigador pueda especificar la probabilidad de cualquier
elemento en la población que investiga. Las muestras de probabilidad permiten usar
estadísticas inferenciales, aquellas que permiten hacer inferencias a partir de datos.
Por otra parte, las muestras no probabilísticas solo permiten usarse estadísticas
descriptivas, aquellas que solo permiten describir, organizar y resumir datos. Se
utilizan cuatro tipos de muestras probabilísticas: muestras aleatorias simples,
muestras aleatorias estratificadas, muestra por conglomerados y muestras
sistemáticas.
Espacio muestral
En la teoría de probabilidades, el espacio muestral o espacio de muestreo (denotado E, S, Ω
o U) consiste en el conjunto de todos los posibles resultados individuales de unexperimento
aleatorio.
Por ejemplo, si el experimento consiste en lanzar dos monedas, el espacio de muestreo es el
conjunto {(cara, cara), (cara, cruz), (cruz, cara) y (cruz, cruz)}. Un evento o suceso es cualquier
subconjunto del espacio muestral, llamándose a los sucesos que contengan un único
elemento sucesos elementales. En el ejemplo, el suceso "sacar cara en el primer lanzamiento",
o {(cara, cara), (cara, cruz)}, estaría formado por los sucesos elementales {(cara, cara)} y
{(cara, cruz)}.
Para algunos tipos de experimento puede haber dos o más espacios de muestreo posibles. Por
ejemplo, cuando se toma una carta de un mazo normal de 52 cartas, una posibilidad del
espacio de muestreo podría ser el número (del as al rey), mientras que otra posibilidad sería el
palo (diamantes, tréboles, corazones y picas). Una descripción completa de los resultados, sin
embargo, especificaría ambos valores, número y palo, y se podría construir un espacio de
muestreo que describiese cada carta individual como el producto cartesiano de los dos
espacios de muestreo descritos.
Los espacios de muestreo aparecen de forma natural en una aproximación elemental a
la probabilidad, pero son también importantes en espacios de probabilidad. Un espacio de
probabilidad (Ω, F, P) incorpora un espacio de muestreo de resultados, Ω, pero define un
conjunto de sucesos de interés, la σ-álgebra F, por la cuál se define la medida de
probabilidadP.
erika julieth avila reina 15 años CAO
Podemos diferenciar entre dos tipos de espacios muestrales: discretos y continuos.
Discretos
Son aquellos espacios donde el número de sucesos elementales es finito o infinito numerable.
[editar]Espacio Probabilístico discreto
Es aquel cuyo espacio muestral es discreto.Podemos diferenciar varios tipos de espacio
probabilístico discreto:
[editar]Espacio Probabilistico Discreto Equiprobable
Su espacio muestral es finito de tamaño n.
La probabilidad de cualquier suceso elemental E es
, de aquí se deduce que para todo suceso A la probabilidad
es
[editar]Espacio Probabilistico Finito
Su espacio muestral es discreto finito.
Hay al menos 2 sucesos elementales que cumplen.
[editar]Procesos Estocasticos Finitos Y Diagramas de Árbol
Un proceso estocástico es una sucesión finita de experimentos aleatorios, cada uno de ellos
con un nº finito de resultados posibles. Se representan con diagrama de árbol.
Continuos
Son aquellos espacios donde el número de sucesos elementales es infinito incontable.
[editar]Espacio probabilístico continuo
Espacio muestral infinito no numerable. -No es posible observar puntos concretos del
espacio.
Tiene sentido hablar de intervalos observados. - No es posible asignar probabilidad a un
punto concreto, se asigna a intervalos.
Por tanto la función P está definida sobre intervalos -----> P(Ki < Exp > Ke)
-Habitualmente cuando trabajamos con magnitudes físicas.
Evento estadístico
En estadística, un evento o suceso es un subconjunto de un espacio muestral, es decir, un
conjunto de posibles resultados que se pueden dar en un experimento aleatorio.
Formalmente, sea Ω un espacio muestral, entonces un evento es
un subconjunto , donde (w1,w2,...) son una serie de posibles
resultados.
Se dice que un evento A ocurre, si el resultado del experimento aleatorio es un elemento de A.
Contenido
[ocultar]
1 Tipos de eventos
o 1.1 Evento simple o suceso elemental
o 1.2 Otros sucesos
2 Propiedades
3 Referencias
[editar]Tipos de eventos
[editar]Evento simple o suceso elemental
Un suceso o evento simple es un subconjunto del espacio muestral que contiene un único
elemento.
Ejemplos de espacios muestrales y sucesos elementales:
Si se trata de contar objetos y el espacio muestral S = {0, 1, 2, 3, ...} (los números
naturales), entonces los sucesos elementales son cada uno de los conjuntos {k},
donde k ∈ N.
Si se lanza una moneda dos veces, S = {cc, cs, sc, ss}, donde (c representa "sale cara" y s,
"sale cruz"), los sucesos elementales son {cc}, {cs}, {sc} y {ss}.
Si X es una variable aleatoria normalmente distribuida, S = (-∞, +∞), los números reales,
los sucesos elementales son todos los conjuntos {x}, donde x ∈ .
Los sucesos elementales pueden tener probabilidades que son estrictamente mayores que
cero, cero, no definidas o cualquier combinación de estas. Por ejemplo, la probabilidad de
cualquier variable aleatoria discreta está determinada por las probabilidades asignadas a los
sucesos elementales del experimento que determina la variable. Por otra parte, cualquier
suceso elemental tiene probabilidad cero en cualquier variable aleatoria continua. Existen
distribuciones mixtas que no son completamente continuas, ni completamente discretas, entre
las que pueden darse ambas situaciones.
Fenómeno aleatorio
En estadística, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de
condiciones iniciales, puede presentar resultados diferentes, es decir, no se puede predecir el
resultado exacto de cada experiencia particular. (Ej: Lanzamiento de un dado). Este tipo de
fenómeno es opuesto al fenómeno determinista, en el que conocer todos los factores de un
experimento nos hace predecir exactamente el resultado del mismo. Por ejemplo, conociendo
la altura desde la que se arroja un móvil es posible saber exactamente el tiempo que tardará en
llegar al suelo en condiciones de vacío.
[editar]Propiedades
Un experimento se dice aleatorio si verifica las siguientes condiciones:
Si los resultados se pueden contar se le llama experimento aleatorio numerable; y si no se
pueden contar, se le llama experimento aleatorio no numerable.
Si es posible conocer previamente todos los posibles resultados (el espacio muestral,
constituido por diferentes sucesos) o por lo menos nombrar al último resultado se le llama
experimento aleatorio finito; y si no se puede nombrar al último resultado, se le llama
experimento aleatorio infinito.
Es imposible predecir el resultado exacto del mismo antes de realizarlo.
A cada realización de un experimento se le llama experiencia o prueba.
Frecuencia estadística
Para el término en física, véase Frecuencia.
Se llama frecuencia a la cantidad de veces que se repite un determinado valor de la variable.
Se suelen representar con histogramas y con diagramas de Pareto.
[editar]Tipos de frecuencia
Fig.1 Ejemplo: variables de A en una muestra estadística de un conjunto B de tamaño 50 (N).
En estadística se pueden distinguir hasta cuatro tipos de frecuencias (véase fig.1), estas son:
Frecuencia absoluta (ni) de una variable estadística Xi, es el número de veces que
aparece en el estudio este valor . A mayor tamaño de la muestra, aumentará el tamaño de
la frecuencia absoluta; es decir, la suma total de todas las frecuencias absolutas debe dar
el total de la muestra estudiada (N).
Frecuencia relativa (fi), es el cociente entre la frecuencia absoluta y el tamaño de la
muestra (N). Es decir,
siendo el fi para todo el conjunto i. Se presenta en una tabla o nube de puntos en
una distribución de frecuencias (ver fig.1 y (fig.2).
Si multiplicamos la frecuencia relativa por 100 obtendremos el porcentaje o tanto por
ciento (pi) que presentan esta característica respecto al total de N, es decir el 100% del
conjunto.
Frecuencia absoluta acumulada (Ni), es el número de veces ni en la muestra N con
un valor igual o menor al de la variable. La última frecuencia absoluta acumulada
deberá ser igual a N.
Frecuencia relativa acumulada (Fi), es el cociente entre la frecuencia absoluta
acumulada y el número total de datos, N. Es decir,
Con la frecuencia relativa acumulada por 100 se obtiene el porcentaje
acumulado (Pi)), que al igual que Fi deberá de resultar al final el 100% de N.
La representación gráfica de la distribución de frecuencias acumuladas se
denomina ojiva. En ella el eje de las abscisas corresponde a los límites de clase y el
de las ordenadas a los porcentajes acumulados.
Medidas de tendencia central
Al describir grupos de observaciones, con frecuencia es conveniente resumir la información con
un solo número . Este número que, para tal fin, suele situarse hacia el centro de la distribución
de datos se denomina medida o parámetro de tendencia central o de centralización.
Cuando se hace referencia únicamente a la posición de estos parámetros dentro de la
distribución, independientemente de que ésta esté más o menos centrada, se habla de estas
medidas como medidas de posición.1 En este caso se incluyen también loscuantiles entre
estas medidas. Se debe tener en cuenta que existen variables cualitativas y variables
cuantitativas, por lo que las medidas de posición o medidas de tendencia se usan de
acuerdo al tipo de variable que se esta observando, en este caso se observan variables
cuantitativas
Entre las medidas de tendencia central tenemos:
La media aritmética (o simplemente media)
Artículo principal: Media aritmética
La media aritmética es el valor obtenido por la suma de todos sus valores dividida entre el
número de sumandos.
Por ejemplo, las notas de 5 alumnos en una prueba:
niño nota
1 6,0 ·Primero, se suman las notas:
2 5,4 6,0+5,4+3,1+7,0+6,1 = 27,6
3 3,1 ·Luego el total se divide entre la cantidad de
alumnos:
4 7,0 27,6/5=5,52
5 6,1 ·La media aritmética en este ejemplo es 5,52
La media aritmética es, probablemente, uno de los parámetros estadísticos más
extendidos.2 Se le llama también promedio o, simplemente, media.
[editar]Definición formal
Dado un conjunto numérico de datos, x1, x2, ..., xn, se define su media aritmética como
Esta definición varía, aunque no sustancialmente, cuando se trata de variables continuas,
esto es, también puede calcularse para variables agrupadas en intervalos.
[editar]PROPIEDADES
Las principales propiedades de la media aritmética son:3
Su cálculo es muy sencillo y en él intervienen todos los datos.
Su valor es único para una serie de datos dada.
Se usa con frecuencia para comparar poblaciones, aunque es más apropiado
acompañarla de una medida de dispersión.
Se interpreta como "punto de equilibrio" o "centro de masas" del conjunto de datos, ya
que tiene la propiedad de equilibrar las desviaciones de los datos respecto de su
propio valor:
Minimiza las desviaciones cuadráticas de los datos respecto de cualquier valor
prefijado, esto es, el valor de es mínimo cuando .
Este resultado se conoce como Teorema de König. Esta propiedad permite
interpretar uno de los parámetros de dispersión más importantes: la varianza.
Se ve afectada por transformaciones afines (cambios de origen y escala), esto
es, si
xi' = axi + b entonces , donde es la media aritmética de los xi', para i =
1, ..., n y a y b números reales.
Es poco sensible a fluctuaciones muestrales, por lo que es un parámetro
muy útil en inferencia estadística.
[editar]Inconvenientes de su uso
Este parámetro, aún teniendo múltiples propiedades que aconsejan su uso en
situaciones muy diversas, tiene también algunos inconvenientes, como son:
Para datos agrupados en intervalos (variables continuas) su valor oscila en
función de la cantidad y amplitud de los intervalos que se consideren.
La estatura media como resumen de una población homogénea (abajo) o
heterogénea (arriba).
Es una medida a cuyo significado afecta sobremanera la dispersión, de
modo que cuanto menos homogéneos sean los datos, menos información
proporciona. Dicho de otro modo, poblaciones muy distintas en su
composición pueden tener la misma media.4 Por ejemplo, un equipo de
baloncesto con cinco jugadores de igual estatura, 1,95 m, evidentemente,
tendría una estatura media de 1,95 m, valor que representa fielmente a
esta población homogénea. Sin embargo, un equipo de jugadores de
estaturas más heterogéneas, 2,20 m, 2,15 m, 1,95 m, 1,75 m y 1,70 m, por
ejemplo, tendría también, como puede comprobarse, una estatura media
de 1,95 m, valor que no representa a casi ninguno de sus componentes.
En el cálculo de la media no todos los valores contribuyen de la misma
manera. Los valores altos tienen más peso que los valores cercanos a
cero. Por ejemplo, en el cálculo del salario medio de un empresa, el salario
de un alto directivo que gane 1.000.000 de € tiene tanto peso como el de
diez empleados "normales" que ganen 1.000 €. En otras palabras, se ve
muy afectada por valores extremos.
No se puede determinar si en una distribución de frecuencias hay
intervalos de clase abiertos.
[editar]Media aritmética ponderada
A veces puede ser útil otorgar pesos o valores a los datos dependiendo de su
relevancia para determinado estudio. En esos casos se puede utilizar una
media ponderada.
Si x1,x2,...,xn son nuestros datos y w1,w2,...,wn son sus "pesos" respectivos, la
media ponderada se define de la siguiente forma:
[editar]Media muestral
Esencialmente, la media muestral es el mismo parámetro que el anterior,
aunque el adjetivo "muestral" se aplica a aquellas situaciones en las que la
media aritmética se calcula para un subconjunto de la población objeto de
estudio.
La media muestral es un parámetro de extrema importancia en la inferencia
estadística, siendo de gran utilidad para la estimación de la media poblacional,
entre otros usos.
[editar]Moda
Artículo principal: Moda (estadística)
La moda es el dato más repetido, el valor de la variable con mayor frecuencia
absoluta.5 En cierto sentido la definición matemática corresponde con la
locución "estar de moda", esto es, ser lo que más se lleva.
Su cálculo es extremadamente sencillo, pues sólo necesita un recuento. En
variables continuas, expresadas en intervalos, existe el denominado intervalo
modal o, en su defecto, si es necesario obtener un valor concreto de la
variable, se recurre a la interpolación.
Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-
7-4-6-9-5-6-1-5-3-7. El número que más se repite es 5, entonces la moda es 5.
Hablaremos de una distribución bimodal de los datos, cuando encontremos dos
modas, es decir, dos datos que tengan la misma frecuencia absoluta máxima.
Cuando en una distribución de datos se encuentran tres o más modas,
entonces es multimodal. Por último, si todas las variables tienen la misma
frecuencia diremos que no hay moda.
Cuando tratamos con datos agrupados en intervalos, antes de calcular la
moda, se ha de definir el intervalo modal. El intervalo modal es el de mayor
frecuencia absoluta.
La moda, cuando los datos están agrupados, es un punto que divide el
intervalo modal en dos partes de la forma p y c-p, siendo c la amplitud del
intervalo, que verifiquen que:
Siendo ni la frecuencia absoluta del intervalo modal y ni − 1 y ni + 1 las frecuencias
absolutas de los intervalos anterior y posterior, respectivamente, al
Las calificaciones en la asignatura de Matemáticas de 39 alumnos de una
clase viene dada por la siguiente tabla (debajo):
Calificaciones 1 2 3 4 5 6 7 8 9
Número de alumnos 2 2 4 5 8 9 3 4 2
[editar]Propiedades
Sus principales propiedades son:
Cálculo sencillo.
Interpretación muy clara.
Al depender sólo de las frecuencias, puede calcularse para variables
cualitativas. Es por ello el parámetro más utilizado cuando al resumir una
población no es posible realizar otros cálculos, por ejemplo, cuando se
enumeran en medios periodísticos las características más frecuentes de
determinado sector social. Esto se conoce informalmente como "retrato
robot".6
[editar]Inconvenientes
Su valor es independiente de la mayor parte de los datos, lo que la hace
muy sensible a variaciones muestrales. Por otra parte, en variables
agrupadas en intervalos, su valor depende excesivamente del número de
intervalos y de su amplitud.
Usa muy pocas observaciones, de tal modo que grandes variaciones en los
datos fuera de la moda, no afectan en modo alguno a su valor.
No siempre se sitúa hacia el centro de la distribución.
Puede haber más de una moda en el caso en que dos o más valores de la
variable presenten la misma frecuencia (distribuciones bimodales o
multimodales).
[editar]Mediana
Artículo principal: Mediana (estadística)
La mediana es un valor de la variable que deja por debajo de sí a la mitad de
los datos, una vez que éstos están ordenados de menor a mayor.7 Por ejemplo,
la mediana del número de hijos de un conjunto de trece familias, cuyos
respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una
vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la
posición central es 2:
En caso de un número par de datos, la mediana no correspondería a
ningún valor de la variable, por lo que se conviene en tomar como
mediana el valor intermedio entre los dos valores centrales. Por ejemplo,
en el caso de doce datos como los anteriores:
Se toma como mediana
Existen métodos de cálculo más rápidos para datos más númerosos
(véase el artículo principal dedicado a este parámetro). Del mismo
modo, para valores agrupados en intervalos, se halla el "intervalo
mediano" y, dentro de éste, se obtiene un valor concreto por
interpolación.
[editar]Cálculo de la mediana para datos agrupados
Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla
del margen derecho).
Así, aplicando la formula asociada a la mediana para n impar,
obtenemos X(39+1)/2 = X20 y basándonos en la fórmula que hace
referencia a las frecuencias absolutas:
Ni-1< n/2 < Ni = N19 < 19.5 < N20
Por tanto la mediana será el valor de la variable que ocupe el
vigésimo lugar. En nuestro ejemplo, 21 (frecuencia absoluta
acumulada para Xi = 5) > 19.5 con lo que Me = 5 puntos (es
aconsejable no olvidar las unidades; en este caso como estamos
hablando de calificaciones, serán puntos)
La mitad de la clase ha obtenido un 5 o menos, y la
otra mitad un 5 o más.
Ejemplo (N par)
Las calificaciones en la asignatura de Matemáticas
de 38 alumnos de una clase viene dada por la
siguiente tabla (debajo):
Calificaciones 1 2 3 4 5 6 7 8 9
Número de alumnos 2 2 4 5 6 9 4 4 2
Calculemos la Mediana:
Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla margen
derecho).
Si volvemos a utilizar la fórmula asociada a la
mediana para n par, obtenemos X(38/2) = X19 y
xi fi Fi
1 2 2
2 2 4
3 4 8
4 5 13
5 6 19 = 19
6 9 28
7 4 32
8 4 36
9 2 38
basándonos en la fórmula que hace referencia a las frecuencias
absolutas --> Ni-1< n/2 < Ni = N18 < 19 < N19
Con lo cual la mediana será la media aritmética de los valores de la
variable que ocupen el decimonoveno y el vigésimo lugar.
En nuestro ejemplo, el lugar decimonoveno lo ocupa el 5 y el
vigésimo el 6, (desde el vigésimo hasta el vigésimo octavo)
con lo que Me = (5+6)/2 = 5,5 puntos.
La mitad de la clase ha obtenido un 5,5 o menos y la otra mitad un
5,5 o más
[editar]Propiedades e inconvenientes
Las principales propiedades de la mediana son:8
Es menos sensible que la media a oscilaciones de los valores
de la variable. Un error de transcripción en la serie del ejemplo
anterior en, pongamos por caso, el último número, deja a la
mediana inalterada.
Como se ha comentado, puede calcularse para datos
agrupados en intervalos, incluso cuando alguno de ellos no está
acotado.
No se ve afectada por la dispersión. De hecho, es más
representativa que la media aritmética cuando la población es
bastante heterogénea. Suele darse esta circunstancia cuando
se resume la información sobre los salarios de un país o una
empresa. Hay unos pocos salarios muy altos que elevan la
media aritmética haciendo que pierda representatividad
respecto al grueso de la población. Sin embargo, alguien con el
salario "mediano" sabría que hay tanta gente que gana más
dinero que él, como que gana menos.
Sus principales inconvenientes son que en el caso de datos
agrupados en intervalos, su valor varía en función de la amplitud de
estos. Por otra parte, no se presta a cálculos algebraicos tan bien
como la media aritmética.
Los Cuartiles, que dividen a la distribución en cuatro partes (corresponden a los cuantiles
0.25, 0.50 y 0.75);
Los Quintiles, que dividen a la distribución en cinco partes (corresponden a los cuantiles
0.20, 0.40, 0.60 y 0.80) ;
Los Deciles, que dividen a la distribución en diez partes;
Los Percentiles, que dividen a la distribución en cien partes.
Regresión lineal
Ejemplo de una regresión lineal con una variable dependiente y unavariable independiente.
En estadística la regresión lineal o ajuste lineal es un método matemático que modeliza la
relación entre unavariable dependiente Y, las variables independientes Xi y un
término aleatorio ε. Este modelo puede ser expresado como:
donde β0 es la intersección o término "constante", las son los parámetros
respectivos a cada variable independiente, y p es el número de parámetros independientes a
tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no
lineal.
Tipos de modelos de regresión lineal
Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:
[editar]Regresión lineal simple
Sólo se maneja una variable independiente, por lo que sólo cuenta con dos parámetros. Son de
la forma:4
(6)Yi = β0 + β1Xi + εi
donde εi es el error asociado a la medición del valor Xi y siguen los supuestos de modo
que εi∼N(0,σ2) (media cero, varianza constante e igual a un σ y con ).
[editar]Análisis
Dado el modelo de regresión simple, si se calcula la esperanza (valor esperado) del valor Y, se
obtiene:5
(7)
Derivando respecto a y e igualando a cero, se obtiene:5
(9)
(10)
Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la
siguiente solución para ambos parámetros:4
(11)
(12)
La interpretación del parámetro β1 es que un incremento en Xi de una unidad, Yi incrementará
en β1
[editar]Regresión lineal múltiple
La regresion lineal nos permite trabajar con una variable a nivel de intervalo o razón, así
también se puede comprender la relación de dos o más variables y nos permitirá relacionar
mediante ecuaciones, una variable en relación a otras variables llamándose Regresión múltiple.
Constantemente en la práctica de la investigación estadística, se encuentran variables que de
alguna manera están relacionados entre si, por lo que es posible que una de las variables
puedan relacionarse matemáticamente en función de otra u otras variables.
Maneja varias variables independientes. Cuenta con varios parámetros. Se expresan de la
forma:6
(13)
donde εi es el error asociado a la medición i del valor Xip y siguen los supuestos de modo
que εi∼N(0,σ2) (media cero, varianza constante e igual a un σ y con ).
Historia
La primera forma de regresiones lineales documentada fue el método de los mínimos
cuadrados, el cual fue publicado por Legendre en 1805,1 y en dónde se incluía una versión
delteorema de Gauss-Márkov.
[editar]Etimología
El término regresión se utilizó por primera vez en el estudio de variables antropométricas: al
comparar la estatura de padres e hijos, resultó que los hijos cuyos padres tenían una estatura
muy superior al valor medio tendían a igualarse a éste, mientras que aquellos cuyos padres
eran muy bajos tendían a reducir su diferencia respecto a la estatura media; es decir,
"regresaban" al promedio.2 La constatación empírica de esta propiedad se vio reforzada más
tarde con la justificación teórica de ese fenómeno.
El término lineal se emplea para distinguirlo del resto de técnicas de regresión, que emplean
modelos basados en cualquier clase de función matemática. Los modelos lineales son una
explicación simplificada de la realidad, mucho más ágil y con un soporte teórico por parte de
la matemática y la estadística mucho más extenso.
Pero bien, como se ha dicho, podemos usar el término lineal para distinguir modelos basados
en cualquier clase de aplicación.
ATOMO
Para el personaje de cómics, véase Átomo (cómic).
Representación de un átomo de helio.
En física y química, átomo (del latín atomum, y éste del griego ἄτομον, sin partes; también, se
deriva de "a" (no) y "tomo" (divisible); no divisible)1 es la unidad más pequeña de un elemento
químico que mantiene su identidad o sus propiedades, y que no es posible dividir mediante
procesos químicos.
El núcleo representa el 99.9% de la masa del átomo, y está compuesto
de bariones llamados protones y neutrones, rodeados por una nube de electrones, que -en un
átomo neutro- igualan el número de protones.
El concepto de átomo como bloque básico e indivisible que compone
la materia del universo fue postulado por la escuela atomista en laAntigua Grecia. Sin embargo,
su existencia no quedó demostrada hasta el siglo XIX. Con el desarrollo de la física nuclear en
el siglo XX se comprobó que el átomo puede subdividirse en partículas más pequeñas.2 3
Estructura atómica
Véase también: Partículas subatómicas
A pesar de que "átomo" significa "indivisible", hoy día se sabe que el átomo está formado por
partículas más pequeñas, llamadas partículas subatómicas.
El núcleo del átomo es su parte central. Tiene carga positiva, y en él se concentra casi toda la
masa del mismo. Sin embargo, ocupa una fracción muy pequeña del volumen del átomo: su
radio es unas diez mil veces más pequeño. El núcleo está formado por protones y neutrones.
Alrededor del núcleo se encuentran los electrones, partículas de carga negativa y masa muy
pequeña comparada con la de los protones y neutrones: un 0,05% aproximadamente. Los
electrones se encuentran alrededor del núcleo, ligados por la fuerza electromagnética que éste
ejerce sobre ellos, y ocupando la mayor parte del tamaño del átomo, en la llamada nube de
electrones.
El núcleo atómico
Artículo principal: Núcleo atómico
El núcleo del átomo se encuentra formado por nucleones, los cuales pueden ser de dos clases:
Protones: una partícula con carga eléctrica positiva igual a una carga elemental, y una
masa de 1,67262 × 10–27 kg.
Neutrones: partículas carentes de carga eléctrica, y con una masa un poco mayor que la
del protón (1,67493 × 10–27 kg).
El núcleo más sencillo es el del hidrógeno, formado únicamente por un protón. El núcleo del
siguiente elemento en la tabla periódica, el helio, se encuentra formado por dos protones y dos
neutrones. La cantidad de protones contenidas en el núcleo del átomo se conoce como número
atómico, el cual se representa por la letra Z y se escribe en la parte inferior izquierda
del símbolo químico. Es el que distingue a un elemento químico de otro. Según lo descrito
anteriormente, el número atómico del hidrógeno es 1 (1H), y el del helio, 2 (2He).
La cantidad total de nucleones que contiene un átomo se conoce como número másico,
representado por la letra A y escrito en la parte superior izquierda del símbolo químico. Para los
ejemplos dados anteriormente, el número másico del hidrógeno es 1 (1H), y el del helio, 4 (4He).
Existen también átomos que tienen el mismo número atómico, pero diferente número másico,
los cuales se conocen como isótopos. Por ejemplo, existen tres isótopos naturales del
hidrógeno, el protio (1H), el deuterio (2H) y el tritio (3H). Todos poseen las mismas
propiedades químicas del hidrógeno, y pueden ser diferenciados únicamente por ciertas
propiedades físicas.
Otros términos menos utilizados relacionados con la estructura nuclear son los isótonos, que
son átomos con el mismo número de neutrones. Los isóbaros son átomos que tienen el mismo
número másico.
Debido a que los protones tienen cargas positivas se deberían repeler entre sí, sin embargo, el
núcleo del átomo mantiene su cohesión debido a la existencia de otra fuerza de mayor
magnitud, aunque de menor alcance conocida como la interacción nuclear fuerte.
Interacciones eléctricas entre protones y electrones
Antes del experimento de Rutherford la comunidad científica aceptaba el modelo atómico de
Thomson, situación que varió después de la experiencia de Rutherford. Los modelos
posteriores se basan en una estructura de los átomos con una masa central cargada
positivamente rodeada de una nube de carga negativa.4
Este tipo de estructura del átomo llevó a Rutherford a proponer su modelo en que los
electrones se moverían alrededor del núcleo en órbitas. Este modelo tiene una dificultad
proveniente del hecho de que una partícula cargada acelerada, como sería necesario para
mantenerse en órbita, radiaría radiación electromagnética, perdiendo energía. Las leyes de
Newton, junto con las ecuaciones de Maxwell del electromagnetismo aplicadas al átomo de
Rutherford llevan a que en un tiempo del orden de 10−10 s, toda la energía del átomo se habría
radiado, con la consiguiente caída de los electrones sobre el núcleo.5
Nube de electrones
Artículo principal: Nube de electrones
Alrededor del núcleo se encuentran los electrones que son partículas elementales de carga
negativa igual a una carga elemental y con una masa de 9,10 × 10–31 Kg.
La cantidad de electrones de un átomo en su estado basal es igual a la cantidad de protones
que contiene en el núcleo, es decir, al número atómico, por lo que un átomo en estas
condiciones tiene una carga eléctrica neta igual a 0.
A diferencia de los nucleones, un átomo puede perder o adquirir algunos de sus electrones sin
modificar su identidad química, transformándose en un ion, una partícula con carga neta
diferente de cero.
El concepto de que los electrones se encuentran en órbitas satelitales alrededor del núcleo se
ha abandonado en favor de la concepción de una nube de electrones deslocalizados o difusos
en el espacio, el cual representa mejor el comportamiento de los electrones descrito por
la mecánica cuántica únicamente como funciones de densidad de probabilidad de encontrar un
electrón en una región finita de espacio alrededor del núcleo.
Dimensiones atómicas
La mayor parte de la masa de un átomo se concentra en el núcleo, formado por los protones y
los neutrones, ambos conocidos como nucleones, los cuales son 1836 y 1838 veces más
pesados que el electrón respectivamente.
El tamaño o volumen exacto de un átomo es difícil de calcular, ya que las nubes de electrones
no cuentan con bordes definidos, pero su diámetro puede estimarse razonablemente en 1,0586
× 10–10 m, el doble del radio de Bohr para el átomo de hidrógeno. Si esto se compara con el
tamaño de un protón, que es la única partícula que compone el núcleo del hidrógeno, que es
aproximadamente 1 × 10–15 se ve que el núcleo de un átomo es cerca de 100.000 veces menor
que el átomo mismo, y sin embargo, concentra prácticamente el 100% de su masa.
Para efectos de comparación, si un átomo tuviese el tamaño de un estadio, el núcleo sería del
tamaño de una canica colocada en el centro, y los electrones, como partículas de polvo
agitadas por el viento alrededor de los asientos.
MODELO DE RUTHERFORD
MODELO DE THOMSON
Partícula subatómica
(Redirigido desde Partículas subatómicas)
Esquema de un átomo de Helio, mostrando dosprotones (en rojo), dos neutrones (en verde) y
dos electrones (en amarillo).
Una partícula subatómica es una partícula más pequeña que el átomo. Puede ser
una partícula elemental o una compuesta, a su vez, por otras partículas subatómicas, como son
los quarks, que componen los protones y neutrones. No obstante, existen otras partículas
subatómicas, tanto compuestas como elementales, que no son parte del átomo, como es el
caso de los neutrinos y bosones.
La física de partículas y la física nuclear se ocupan del estudio de estas partículas, sus
interacciones y de la materia que las forma y que no se agrega en los átomos.
La mayoría de las partículas elementales que se han descubierto y estudiado no pueden
encontrarse en condiciones normales en laTierra, generalmente porque son inestables (se
descomponen en partículas ya conocidas), o bien, son difíciles de producir de todas maneras.
Estas partículas, tanto estables como inestables, se producen al azar por la acción de los rayos
cósmicos al chocar con átomos de la atmósfera, y en los procesos que se dan en
los aceleradores de partículas, los cuales imitan un proceso similar al primero, pero en
condiciones controladas. De estas maneras, se han descubierto docenas de partículas
subatómicas, y se teorizan cientos de otras más. Ejemplos de partículas teóricas son
el gravitón y el bosón de Higgs; sin embargo, éstas y muchas otras no han sido observadas en
aceleradores de partículas modernos, ni en condiciones naturales en la atmósfera (por la
acción de rayos cósmicos).
Como partículas subatómicas, se clasifican también las partículas virtuales, que son partículas
que representan un paso intermedio en la desintegración de una partícula inestable, y por
tanto, duran muy poco tiempo.
Véanse también: partículas elementales, átomo, electrón, protón, neutrón y núcleo atómico
Introducción
Los primeros modelos atómicos consideraban básicamente tres tipos de partículas
subatómicas: protones, electrones y neutrones. Más adelante el descubrimiento de la
estructura interna de protones y neutrones, reveló que estas eran partículas
compuestas. Además el tratamiento cuántico usual de las interacciones entre las
partículas comporta que la cohesión del átomo requiere otras
partículas bosónicas como los piones, gluones o fotones.
Los protones y neutrones por su parte están constituidos por quarks. Así un protón está
formado por dos quarks up y un quark down. Los quarks se unen mediante partículas
llamadasgluones. Existen seis tipos diferentes de quarks (up,
down, bottom, top, extraño y encanto). Los protones se mantienen unidos a los
neutrones por el efecto de los piones, que sonmesones compuestos formados por
parejas de quark y antiquark (a su vez unidos por gluones). Existen también otras
partículas elementales que son responsables de las
fuerzaselectromagnética (los fotones) y débil (los neutrinos y los bosones W y Z).
Los electrones, que están cargados negativamente, tienen una masa 1/1836 de la del
átomo de hidrógeno, proviniendo el resto de su masa del protón. El número atómico de
un elemento es el número de protones (o el de electrones si el elemento es neutro).
Los neutrones por su parte son partículas neutras con una masa muy similar a la del
protón. Los distintos isótopos de un mismo elemento contienen el mismo número de
protones pero distinto número de neutrones. El número másico de un elemento es el
número total de protones más neutrones que posee en su núcleo.
Las propiedades más interesantes de las 3 partículas constituyentes de la materia
existente en el universo son:
Protón
Se encuentra en el núcleo. Su masa es de 1,6×10-27 kg.1 Tiene carga positiva igual en
magnitud a la carga del electrón. El número atómico de un elemento indica el número
de protones que tiene en el núcleo. Por ejemplo el núcleo del átomo de hidrógeno
contiene un único protón, por lo que su número atómico (Z) es 1.
Electrón
Se encuentra en la corteza. Su masa aproximadamente es de 9,1×10-31 kg. Tiene carga
eléctrica negativa (-1.602×10-19 C).2
Neutrón
Se encuentra en el núcleo. Su masa es casi igual que la del protón. No posee carga
eléctrica.
El concepto de partícula elemental es hoy algo más oscuro debido a la existencia
de cuasipartículas que si bien no pueden ser detectadas por un detector constituyen
estados cuánticos cuya descripción fenomenológica es muy similar a la de una
partícula real.
Número atómico
(Redirigido desde Numero atomico)
En química, el número atómico es el número entero positivo que es igual al número total
de protones en el núcleo del átomo. Se suele representar con la letra Z (del alemán: Zahl, que
quiere decir número). El número atómico es característico de cada elemento químico y
representa una propiedad fundamental del átomo: su carga nuclear.
En 1913 Henry Moseley demostró la regularidad existente entre los valores de las longitudes de
onda de los rayos X emitidos por diferentes metales tras ser bombardeados con electrones, y
los números atómicos de estos elementos metálicos. Este hecho permitió clasificar a los
elementos en la tabla periódica en orden creciente de número atómico. En latabla periódica los
elementos se ordenan de acuerdo a sus números atómicos en orden creciente.
Masa atómica
(Redirigido desde Masa atomica)
La masa atómica (ma) es la masa de un átomo, más frecuentemente expresada en unidades
de masa atómica unificada.1 La masa atómica puede ser considerada como la masa total
de protones y neutrones en un solo átomo (cuando el átomo no tiene movimiento). La masa
atómica es algunas veces usada incorrectamente como un sinónimo de masa atómica
relativa, masa atómica media y peso atómico; estos últimos difieren sutilmente de la masa
atómica. La masa atómica está definida como la masa de un átomo, que sólo puede ser de
un isótopo a la vez, y no es un promedio ponderado en las abundancias de los isótopos. En el
caso de muchos elementos que tienen un isótopo dominante, la similitud/diferencia numérica
real entre la masa atómica del isótopo más común y la masa atómica relativa o peso atómico
estándar puede ser muy pequeña, tal que no afecta muchos cálculos bastos, pero tal error
puede ser crítico cuando se consideran átomos individuales. Para elementos con más de un
isótopo común, la diferencia puede llegar a ser de media unidad o más (por ejemplo, cloro). La
masa atómica de un isótopo raro puede diferir de la masa atómica relativa o peso atómico
estándar en varias unidades de masa.
El peso atómico estándar se refiere a la media de las masas atómicas relativas de un
elemento en el medio local de la corteza terrestre y la atmósfera terrestre, como está
determinado por la Commission on Atomic Weights and Isotopic Abundances (Comisión de
Pesos Atómicos y Abundancias Isotópicas) de la IUPAC.2 Estos valores son los que están
incluidos en una tabla periódica estándar, y es lo que es más usado para los cálculos
ordinarios. Se incluye una incertidumbre en paréntesis que frecuentemente refleja la
variabilidad natural en la distribución isotópica, en vez de la incertidumbre en la medida.3 Para
los elementos sintéticos, el isótopo formado depende de los medios de síntesis, por lo que el
concepto de abundancia isotópica natural no tiene sentido. En consecuencia, para elementos
sintéticos, el conteo total de nucleones del isótopo más estable (esto es, el isótopo con lavida
media más larga) está listado en paréntesis en el lugar del peso atómico estándar.
El litio representa un caso único, donde la abundancia natural de los isótopos ha sido
perturbada por las actividades humanas al punto de afectar la incertidumbre en su peso
atómico estándar, incluso en muestras obtenidas de fuentes naturales, como los ríos.
La masa atómica relativa es un sinónimo para peso atómico y está cercanamente relacionado
a masa atómica promedio (pero no es un sinónimo de masa atómica), la media ponderada de
las masas atómicas de todos los átomos de un elemento químico encontrados en una muestra
particular, ponderados por abundancia isotópica.4 Esto es usado frecuentemente como
sinónimo para peso atómico relativo, y no es incorrecto hacer así, dado que los pesos
atómicos estándar son masas atómicas relativas, aunque es menos específico. La masa
atómica relativa también se refiere a ambientes no terrestres y ambientes terrestres altamente
específicos que se desvían de la media o tienen diferentes certidumbres (número de cifras
significativas) que los pesos atómicos estándar.
Número másico
(Redirigido desde Numero de masa)
En química, el número másico o número de masa representa el número de
los protones y neutrones. Se simboliza con la letra A. El uso de esta letra proviene del
alemánAtomgewicht, que quiere decir peso atómico, aunque sean conceptos distintos que no
deben confundirse. Por este motivo resultaría más correcto que la letra A
representara Atomkern, es decir, núcleo atómico para evitar posibles confusiones. Suele ser
mayor que el número atómico, dado que los neutrones del núcleo proporcionan a éste la
cohesión necesaria para superar la copulacion entre los protones.
El número de masa es además el indicativo de los distintos isótopos de un elemento. Dado que
el número de protones es idéntico para todos los átomos del elemento, sólo el número másico,
que lleva implícito el número de neutrones en el núcleo, indica de qué isótopo del elemento se
trata. El número másico se indica con un superíndice situado a la izquierda de su símbolo,
sobre el número atómico. Por ejemplo, el 1H es el isótopo de hidrógeno conocido como protio.
El 2H es el deuterio y el 3H es el tritio. Dado que todos ellos son hidrógeno, el número atómico
tiene que ser 1.
Para todo átomo e ion:
Número de neutrones = Número másico (A) - Número atómico (Z)
A = Z + N El número atómico siempre estará al lado del número másico.
La suma de los protones y los neutrones presentes en el núcleo de un átomo, nos da como
resultado un número que denominamos número másico. El número másico se recoge en
latabla periódica.
Ley de Moseley
La Ley de Moseley es una ley empírica que establece una relación sistemática entre
la longitud de onda de los rayos X emitidos por distintos átomos con su número atómico. Fue
enunciada en 1913 por el físico británico Henry Moseley.
Tuvo una gran importancia histórica, pues hasta ese momento, el número atómico era sólo el
lugar que ocupaba un elemento en la tabla periódica. Dicho lugar había sido asociado a cada
elemento de modo semi-arbitario por Mendeleiev y no estaba relacionado cuantitativamente
hasta entonces con ninguna cantidad física medible.
Ley periódica
Propone el criterio de ordenamiento de los elementos químicos con base en el número atómico
y enuncia la ley periódica moderna:
"Cuando los elementos se arreglan en
orden de sus números atómicos sus propiedades físicas y quimicas muestran
tendencias periódicas."
Tabla periódica de los elementos
La tabla periódica de los elementos.
La tabla periódica de los elementos clasifica, organiza y distribuye los distintos elementos
químicos, conforme a sus propiedades y características; su función principal es establecer un
orden específico agrupando elementos.
Suele atribuirse la tabla a Dmitri Mendeléyev, quien ordenó los elementos basándose en la
variación manual de las propiedades químicas, si bien Julius Lothar Meyer, trabajando por
separado, llevó a cabo un ordenamiento a partir de las propiedades físicas de los átomos. La
forma actual es una versión modificada de la de Mendeléyev; fue diseñada por Alfred Werner.
[editar]Historia
La historia de la tabla periódica está íntimamente relacionada con varios aspectos del
desarrollo de la química y la física:
El descubrimiento de los elementos de la tabla periódica.
El estudio de las propiedades comunes y la clasificación de los elementos.
La noción de masa atómica (inicialmente denominada "peso atómico") y, posteriormente,
ya en el siglo XX, de número atómico.
Las relaciones entre la masa atómica (y, más adelante, el número atómico) y las
propiedades periódicas de los elementos.
[editar]El descubrimiento de los elementos
Aunque algunos elementos como el oro (Au), plata (Ag), cobre (Cu), plomo (Pb) y
el mercurio (Hg) ya eran conocidos desde la antigüedad, el primer descubrimiento científico de
un elemento ocurrió en el siglo XVII cuando el alquimista Henning Brand descubrió el fósforo
(P). En el siglo XVIII se conocieron numerosos nuevos elementos, los más importantes de los
cuales fueron los gases, con el desarrollo de la química neumática: oxígeno (O), hidrógeno (H)
y nitrógeno (N). También se consolidó en esos años la nueva concepción de elemento, que
condujo a Antoine Lavoisier a escribir su famosa lista de sustancias simples, donde aparecían
33 elementos. A principios del siglo XIX, la aplicación de la pila eléctrica al estudio de
fenómenos químicos condujo al descubrimiento de nuevos elementos, como los metales
alcalinos y alcalino–térreos, sobre todo gracias a los trabajos de Humphry Davy. En 1830 ya se
conocían 55 elementos. Posteriormente, a mediados del siglo XIX, con la invención
del espectroscopio, se descubrieron nuevos elementos, muchos de ellos nombrados por el
color de sus líneas espectrales características: cesio (Cs, del latín caesĭus, azul), talio (Tl, de
tallo, por su color verde), rubidio (Rb, rojo), etc.
[editar]La noción de elemento y las propiedades periódicas
Lógicamente, un requisito previo necesario a la construcción de la tabla periódica era el
descubrimiento de un número suficiente de elementos individuales, que hiciera posible
encontrar alguna pauta en comportamiento químico y sus propiedades. Durante los siguientes
dos siglos se fue adquiriendo un gran conocimiento sobre estas propiedades, así como
descubriendo muchos nuevos elementos.
La palabra "elemento" procede de la ciencia griega, pero su noción moderna apareció a lo largo
del siglo XVII, aunque no existe un consenso claro respecto al proceso que condujo a su
consolidación y uso generalizado. Algunos autores citan como precedente la frase de Robert
Boyle en su famosa obra The Sceptical Chymist, donde denomina elementos "ciertos cuerpos
primitivos y simples que no están formados por otros cuerpos, ni unos de otros, y que son los
ingredientes de que se componen inmediatamente y en que se resuelven en último término
todos los cuerpos perfectamente mixtos". En realidad, esa frase aparece en el contexto de la
crítica de Robert Boyle a los cuatro elementos aristotélicos.
A lo largo del siglo XVIII, las tablas de afinidad recogieron un nuevo modo de entender la
composición química, que aparece claramente expuesto por Lavoisier en su obra Tratado
elemental de Química. Todo ello condujo a diferenciar en primer lugar qué sustancias de las
conocidas hasta ese momento eran elementos químicos, cuáles eran sus propiedades y cómo
aislarlos.
El descubrimiento de un gran número de nuevos elementos, así como el estudio de sus
propiedades, pusieron de manifiesto algunas semejanzas entre ellos, lo que aumentó el interés
de los químicos por buscar algún tipo de clasificación.
[editar]Los pesos atómicos
A principios del siglo XIX, John Dalton (1766–1844) desarrolló una nueva concepción del
atomismo, al que llegó gracias a sus estudios meteorológicos y de los gases de la atmósfera.
Su principal aportación consistió en la formulación de un "atomismo químico" que permitía
integrar la nueva definición de elemento realizada por Antoine Lavoisier (1743–1794) y las
leyes ponderales de la química (proporciones definidas, proporciones múltiples, proporciones
recíprocas).
Dalton empleó los conocimientos sobre proporciones en las que reaccionaban las sustancias
de su época y realizó algunas suposiciones sobre el modo como se combinaban losátomos de
las mismas. Estableció como unidad de referencia la masa de un átomo de hidrógeno (aunque
se sugirieron otros en esos años) y refirió el resto de los valores a esta unidad, por lo que pudo
construir un sistema de masas atómicas relativas. Por ejemplo, en el caso del oxígeno, Dalton
partió de la suposición de que el agua era un compuesto binario, formado por un átomo de
hidrógeno y otro de oxígeno. No tenía ningún modo de comprobar este punto, por lo que tuvo
que aceptar esta posibilidad como una hipótesis a priori.
Dalton conocía que 1 parte de hidrógeno se combinaba con 7 partes (8 afirmaríamos en la
actualidad) de oxígeno para producir agua. Por lo tanto, si la combinación se producía átomo a
átomo, es decir, un átomo de hidrógeno se combinaba con un átomo de oxígeno, la relación
entre las masas de estos átomos debía ser 1:7 (o 1:8 se calcularía en la actualidad). El
resultado fue la primera tabla de masas atómicas relativas (o pesos atómicos, como los
llamaba Dalton) que fue posteriormente modificada y desarrollada en los años posteriores. Las
incertidumbres antes mencionadas dieron lugar a toda una serie de polémicas y disparidades
respecto a las fórmulas y los pesos atómicos, que sólo comenzarían a superarse, aunque no
totalmente, con el congreso de Karlsruhe en 1860.
[editar]Metales, no metales, metaloides y metales de transición
La primera clasificación de elementos conocida, fue propuesta por Antoine Lavoisier, quien
propuso que los elementos se clasificaran en metales, no metales y metaloides o metales de
transición. Aunque muy práctico y todavía funcional en la tabla periódica moderna, fue
rechazada debido a que había muchas diferencias en las propiedades físicas como químicas.
[editar]Tríadas de Döbereiner
Uno de los primeros intentos para agrupar los elementos de propiedades análogas y
relacionarlo con los pesos atómicos se debe al químico alemán Johann Wolfgang
Döbereiner(1780–1849) quien en 1817 puso de manifiesto el notable parecido que existía entre
las propiedades de ciertos grupos de tres elementos, con una variación gradual del primero al
último. Posteriormente (1827) señaló la existencia de otros grupos de tres elementos en los que
se daba la misma relación (cloro, bromo y yodo; azufre, selenio y telurio; litio, sodio y potasio).
A estos grupos de tres
elementos se les
denominó tríadas y hacia
1850 ya se habían
encontrado unas 20, lo que
indicaba una cierta
regularidad entre los elementos químicos.
Döbereiner intentó relacionar las propiedades químicas de estos elementos (y de
sus compuestos) con los pesos atómicos, observando una gran analogía entre ellos, y una
variación gradual del primero al último.
En su clasificación de las tríadas (agrupación de tres elementos) Döbereiner explicaba que el
peso atómico promedio de los pesos de los elementos extremos, es parecido al peso atómico
del elemento de en medio. Por ejemplo, para la tríada Cloro, Bromo, Yodo los pesos atómicos
son respectivamente 36, 80 y 127; si sumamos 36 + 127 y dividimos entre dos, obtenemos 81,
que es aproximadamente 80 y si le damos un vistazo a nuestra tabla periódica el elemento con
el peso atómico aproximado a 80 es el bromo lo cual hace que concuerde un aparente
ordenamiento de tríadas.
[editar]Chancourtois
Artículo principal: Alexandre-Emile Béguyer de Chancourtois
En 1864, Chancourtois construyó una hélice de papel, en la que estaban ordenados por pesos
atómicos (masa atómica) los elementos conocidos, arrollada sobre un cilindro vertical. Se
encontraba que los puntos correspondientes estaban separados unas 16 unidades. Los
elementos similares estaban prácticamente sobre la misma generatriz, lo que indicaba una
cierta periodicidad, pero su diagrama pareció muy complicado y recibió poca atención.
www.babosas.com
[editar]Ley de las octavas de Newlands
Artículo principal: John Alexander Reina Newlands
En 1864, el químico inglés John Alexander Reina Newlands comunicó al Royal College of
Chemistry (Real Colegio de Química) su observación de que al ordenar los elementos en orden
creciente de sus pesos atómicos (prescindiendo del hidrógeno), el octavo elemento a partir de
cualquier otro tenía unas propiedades muy similares al primero. En esta época, los llamados
gases nobles no habían sido aún descubiertos.
Tríadas de Döbereiner
LitioLiClLiOH
CalcioCaCl2CaSO4
AzufreH2SSO2
SodioNaClNaOH
EstroncioSrCl2SrSO4
SelenioH2SeSeO2
PotasioKClKOH
BarioBaCl2BaSO4
TelurioH2TeTeO2
Esta ley mostraba una cierta
ordenación de los elementos
en familias (grupos), con
propiedades muy parecidas
entre sí y en Periodos,
formados por ocho elementos
cuyas propiedades iban
variando progresivamente.
El nombre de octavas se basa en la intención de Newlands de relacionar estas propiedades
con la que existe en la escala de las notas musicales, por lo que dio a su descubrimiento el
nombre de ley de las octavas.
Como a partir del calcio dejaba de cumplirse esta regla, esta ordenación no fue apreciada por
la comunidad científica que lo menospreció y ridiculizó, hasta que 23 años más tarde fue
reconocido por la Royal Society, que concedió a Newlands su más alta condecoración,
la medalla Davy.
[editar]Tabla periódica de Mendeléyev
Artículo principal: Tabla periódica de Mendeléyev
En 1869, el ruso Dmitri Ivánovich Mendeléyev publicó su primera Tabla Periódica en Alemania.
Un año después lo hizoJulius Lothar Meyer, que basó su clasificación periódica en la
periodicidad de los volúmenes atómicos en función de la masa atómica de los elementos.
Por ésta fecha ya eran conocidos 63 elementos de los 90 que existen en la naturaleza. La
clasificación la llevaron a cabo los dos químicos de acuerdo con los criterios siguientes:
Colocaron los elementos por orden creciente de sus masas atómicas.
Situaron en el mismo grupo elementos que tenían propiedades comunes como la valencia.
Tabla de Mendeléyev publicada en 1872. En ella deja casillas libres para elementos por
descubrir.
La primera clasificación periódica de Mendeléyev no tuvo buena acogida al principio. Después
de varias modificaciones publicó en el año 1872 una nueva Tabla Periódica constituida por
Ley de las octavas de Newlands
1 2 3 4 5 6 7
Li6,9
Na23,0
K39,0
Be9,0
Mg24,3
Ca40,0
B10,8
Al27,0
C12,0
Si28,1
N14,0
P31,0
O16,0
S32,1
F19,0
Cl35,5
ocho columnas desdobladas en dos grupos cada una, que al cabo de los años se llamaron
familia A y B.
En su nueva tabla consigna las fórmulas generales de los hidruros y óxidos de cada grupo y
por tanto, implícitamente, lasvalencias de esos elementos.
Esta tabla fue completada a finales del siglo XIX con un grupo más, el grupo cero, constituido
por los gas noble descubiertos durante esos años en el aire. El químico ruso no aceptó en
principio tal descubrimiento, ya que esos elementos no tenían cabida en su tabla. Pero cuando,
debido a su inactividad química (valencia cero), se les asignó el grupo cero, la Tabla Periódica
quedó más completa.
El gran mérito de Mendeléyev consistió en pronosticar la existencia de elementos. Dejó casillas
vacías para situar en ellas los elementos cuyo descubrimiento se realizaría años después.
Incluso pronosticó las propiedades de algunos de ellos: el galio (Ga), al que llamó eka–aluminio
por estar situado debajo delaluminio; el germanio (Ge), al que llamó eka–silicio;
el escandio (Sc); y el tecnecio (Tc), que, aislado químicamente a partir de restos de
un sincrotrón en 1937, se convirtió en el primer elemento producido de forma
predominantemente artificial.
[editar]La noción de número atómico y la mecánica cuántica
La tabla periódica de Mendeléyev presentaba ciertas irregularidades y problemas. En las
décadas posteriores tuvo que integrar los descubrimientos de los gases nobles, las "tierras
raras" y los elementos radioactivos. Otro problema adicional eran las irregularidades que
existían para compaginar el criterio de ordenación por peso atómico creciente y la agrupación
por familias con propiedades químicas comunes. Ejemplos de esta dificultad se encuentran en
las parejas telurio–yodo, argón–potasio y cobalto–níquel, en las que se hace necesario alterar
el criterio de pesos atómicos crecientes en favor de la agrupación en familias con propiedades
químicas semejantes.
Durante algún tiempo, esta cuestión no pudo resolverse satisfactoriamente hasta que Henry
Moseley (1867–1919) realizó un estudio sobre los espectros de rayos X en 1913. Moseley
comprobó que al representar la raíz cuadrada de la frecuencia de la radiación en función del
número de orden en el sistema periódico se obtenía una recta, lo cual permitía pensar que este
orden no era casual sino reflejo de alguna propiedad de la estructura atómica. Hoy sabemos
que esa propiedad es el número atómico (Z) o número de cargas positivas del núcleo.
La explicación que aceptamos actualmente de la "ley periódica" descubierta por los químicos
de mediados del siglo pasado surgió tras los desarrollos teóricos producidos en el primer tercio
del siglo XX. En el primer tercio del siglo XX se construyó la mecánica cuántica. Gracias a
estas investigaciones y a los desarrollos posteriores, hoy se acepta que la ordenación de
los elementos en el sistema periódico está relacionada con la estructura electrónica de los
átomos de los diversos elementos, a partir de la cual se pueden predecir sus diferentes
propiedades químicas.
Tabla periódica de los elementos1
Grupo 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
I A II AIII B
IV BV B VI BVII B
VIII B
VIII B
VIII B
I B II B III AIV A V A VI AVII A
VIII A
Periodo
11H
2He
23Li
4Be
5B
6C
7N
8O
9F
10Ne
311Na
12Mg
13Al
14Si
15P
16S
17Cl
18Ar
419K
20Ca
21Sc
22Ti
23V
24Cr
25Mn
26Fe
27Co
28Ni
29Cu
30Zn
31Ga
32Ge
33As
34Se
35Br
36Kr
537Rb
38Sr
39Y
40Zr
41Nb
42Mo
43Tc
44Ru
45Rh
46Pd
47Ag
48Cd
49In
50Sn
51Sb
52Te
53I
54Xe
655Cs
56Ba
*72Hf
73Ta
74W
75Re
76Os
77Ir
78Pt
79Au
80Hg
81Tl
82Pb
83Bi
84Po
85At
86Rn
787Fr
88Ra
**104Rf
105Db
106Sg
107Bh
108Hs
109Mt
110Ds
111Rg
112Cn
113Uut
114Uuq
115Uup
116Uuh
117Uus
118Uuo
Lantánidos *57La
58Ce
59Pr
60Nd
61Pm
62Sm
63Eu
64Gd
65Tb
66Dy
67Ho
68Er
69Tm
70Yb
71Lu
Actínidos **89Ac
90Th
91Pa
92U
93Np
94Pu
95Am
96Cm
97Bk
98Cf
99Es
100Fm
101Md
102No
103Lr
Alcalinos Alcalinotérreos Lantánidos Actínidos Metales de transición
Metales del bloque p Metaloides No metales Halógenos Gases nobles y Transactínidos
Para una tabla más detallada, puedes consultar: Anexo:Tabla periódica
[editar]Clasificación
[editar]Grupos
Artículo principal: Grupo de la tabla periódica
A las columnas verticales de la tabla periódica se les conoce como grupos. Todos los
elementos que pertenecen a un grupo tienen la misma valencia atómica, y por ello, tienen
características o propiedades similares entre sí. Por ejemplo, los elementos en el
grupo IA tienen valencia de 1 (un electrón en su último nivel de energía) y todos tienden a
perder ese electrón al enlazarse como iones positivos de +1. Los elementos en el último grupo
de la derecha son los gases nobles, los cuales tienen lleno su último nivel de energía (regla del
octeto) y, por ello, son todos extremadamente no reactivos.
Numerados de izquierda a derecha utilizando números arábigos, según la última
recomendación de la IUPAC (según la antigua propuesta de la IUPAC) de 1988,2 los grupos de
la tabla periódica son:
Grupo 1 (I A): los metales alcalinos
Grupo 2 (II A): los metales alcalinotérreos
Grupo 3 (III B): Familia del Escandio
Grupo 4 (IV B): Familia del Titanio
Grupo 5 (V B): Familia del Vanadio
Grupo 6 (VI B): Familia del Cromo
Grupo 7 (VII B): Familia del Manganeso
Grupo 8 (VIII B): Familia del Hierro
Grupo 9 (IX B): Familia del Cobalto
Grupo 10 (X B): Familia del Níquel
Grupo 11 (I B): Familia del Cobre
Grupo 12 (II B): Familia del Zinc
Grupo 13 (III A): los térreos
Grupo 14 (IV A): los carbonoideos
Grupo 15 (V A): los nitrogenoideos
Grupo 16 (VI A): los calcógenos o anfígenos
Grupo 17 (VII A): los halógenos
Grupo 18 (VIII A): los gases nobles
Períodos
Artículo principal: Períodos de la tabla periódica
Las filas horizontales de la tabla periódica son llamadas períodos. Contrario a como ocurre en
el caso de los grupos de la tabla periódica, los elementos que componen una misma fila tienen
propiedades diferentes pero masas similares: todos los elementos de un período tienen el
mismo número de orbitales. Siguiendo esa norma, cada elemento se coloca según
suconfiguración electrónica. El primer período solo tiene dos miembros: hidrógeno y helio;
ambos tienen sólo el orbital 1s.
La tabla periódica consta de 7 períodos:
Período 1
Período 2
Período 3
Período 4
Período 5
Período 6
Período 7
La tabla también está dividida en cuatro grupos, s, p, d, f, que están ubicados en el orden sdp,
de izquierda a derecha, y f lantánidos y actínidos. Esto depende de la letra en terminación de
los elementos de este grupo, según el principio de Aufbau.
[editar]Bloques o regiones
Artículo principal: Bloque de la tabla periódica
Tabla periódica dividida en bloques.
La tabla periódica se puede también dividir en bloques de elementos según el orbital que estén
ocupando loselectrones más externos.
Los bloques o regiones se denominan según la letra que hace referencia al orbital más
externo: s, p, d y f. Podría haber más elementos que llenarían otros orbitales, pero no se han
sintetizado o descubierto; en este caso se continúa con el orden alfabético para nombrarlos.
Bloque s
Bloque p
Bloque d
Bloque f
Reacción química
Una reacción química o cambio químico es todo proceso químico en el cual dos o más
sustancias (llamadas reactivos), por efecto de un factor energético, se transforman en otras
sustancias llamadas productos. Esas sustancias pueden ser elementos o compuestos. Un
ejemplo de reacción química es la formación de óxido de hierro producida al reaccionar
eloxígeno del aire con el hierro.
A la representación simbólica de las reacciones se les llama ecuaciones químicas.
Los productos obtenidos a partir de ciertos tipos de reactivos dependen de las condiciones bajo
las que se da la reacción química. No obstante, tras un estudio cuidadoso se comprueba que,
aunque los productos pueden variar según cambien las condiciones, determinadas cantidades
permanecen constantes en cualquier reacción química. Estas cantidades constantes, las
magnitudes conservadas, incluyen el número de cada tipo de átomo presente, la carga
eléctrica y la masa total.
Contenido
[ocultar]
1 Tipos de reacción
2 Grado de avance de la reacción y afinidad
3 Rendimiento de una reacción
4 Enlaces externos
[editar]Tipos de reacción
Los tipos de reacciones inorgánicas son: Ácido-base
(Neutralización), combustión, solubilización, reacciones redox y precipitación.
Desde un punto de vista de la física se pueden postular dos grandes modelos para las
reacciones químicas: reacciones ácido-base (sin cambios en los estados de oxidación) y
reacciones Redox (con cambios en los estados de oxidación). Sin embargo, podemos
clasificarlas de acuerdo a el tipo de productos que resulta de la reacción. En esta clasificación
entran las reacciones de síntesis (combinación), descomposición, de sustitución simple, de
sustitución doble:
Nombre Descripción Representación Ejemplo
Reacción de síntesis Elementos o compuestos sencillos que se unen para formar un compuesto más complejo.
A+B → AB
Donde A y B representan
cualquier sustancia química.
2Na(s) + Cl2(g) → 2NaCl(s)
La siguiente es la forma
general que presentan este tipo
de reacciones:
Un ejemplo de este tipo de
reacción es la síntesis del
cloruro de sodio:
Reacción de descomposición
Un compuesto se fragmenta en elementos o compuestos más sencillos. En este tipo de reacción un solo reactivo se convierte en zonas o productos.
AB → A+B
Donde A y B representan
cualquier sustancia química.
Un ejemplo de este tipo de
reacción es la descomposición
del agua:
2H2O(l) → 2H2(g) + O2(g)
Reacción de desplazamiento o simple sustitución
Un elemento reemplaza a otro en un compuesto.
A + BC → AC + B
Donde A, B y C representan
cualquier sustancia química.
Un ejemplo de este tipo de
reacción se evidencia cuando
el hierro(Fe) desplaza al
cobre(Cu) en el sulfato de
cobre (CuSO4):
Fe + CuSO4 → FeSO4 + Cu
Reacción de doble desplazamiento o doble sustitución
Los iones en un compuesto cambian lugares con los iones de otro compuesto para formar dos sustancias diferentes.
AB + CD → AD + BC
Donde A, B, C y D
representan cualquier
sustancia química.
Veamos un ejemplo de este
tipo de reacción:
NaOH + HCl → NaCl + H2O
Respecto a las reacciones de la química orgánica, nos referimos a ellas teniendo como base a
diferentes tipos de compuestos
como alcanos, alquenos, alquinos, alcoholes, aldehídos,cetonas, etc. que encuentran su
clasificación y reactividad en el grupo funcional que contienen y este último será el responsable
de los cambios en la estructura y composición de la materia. Entre los grupos funcionales más
importantes tenemos a los dobles y triples enlaces y a los grupos hidroxilo, carbonilo y nitro.
[editar]Grado de avance de la reacción y afinidad
Desde el punto de vista de la física, representamos a la reacción como:
tal que νi son los coeficientes estequiométricos de la reacción, que pueden ser positivos
(productos) o negativos (reactivos). La ecuación presenta dos formas posibles de estar
químicamente la naturaleza (como suma de productos o como suma de reactivos).
Si dmi es la masa del producto que aparece, o del reactivo que desaparece, resulta que:
constante . Mi sería la masa molecular del compuesto correspondiente y ξ se
denomina grado de avance. Este concepto es importante pues es el único grado de
libertad en la reacción.
Cuando existe un equilibrio en la reacción, la entalpía libre es un mínimo, por lo que:
nos lleva a que la afinidad química es nula.
[editar]Rendimiento de una reacción
Artículo principal: Rendimiento químico
La cantidad de producto que se suele obtener de una reacción química, es
menor que la cantidad teórica. Esto depende de varios factores, como la
pureza del reactivo, las reacciones secundarias que puedan tener lugar,es
posible que no todos los productos reaccionen,la recuperación del 100% de la
muestra es prácticamente imposible .
El rendimiento de una reacción se calcula mediante la siguiente fórmula:
Cuando uno de los reactivos esté en exceso, el rendimiento deberá calcularse
respecto al reactivo limitante. Y el rendimiento depende del calor que expone la
reacción.
Ecuaciones químicas
Artículo principal: Ecuación química
Una ecuación química es una representación escrita de una reacción química. Se basa en el
uso de símbolos químicos que identifican a los átomos que intervienen y como se encuentran
agrupados antes y después de la reacción. Cada grupo de átomos se encuentra separado por
simbolos (+) y representa a las moléculas que participan, cuenta además con una serie de
números que indican la cantidad de átomos de cada tipo que las forman y la cantidad de
moléculas que intervienen, y con una flecha que indica la situación inicial y la final de la
reacción. Así por ejemplo en la reacción:
Tenemos los grupos de átomos (moléculas) siguientes:
O2
H2
H2O
El subíndice indica la atomicidad, es decir la cantidad de átomos que forma cada agrupación de
átomos (molécula). Asi el primer grupo, representa a una molécula que está formada por 2
átomos de oxígeno, el segundo a una molécula formada por 2 átomos de hidrógeno, y el
tercero representa a un grupo de dos átomos de hidrógeno y uno de oxígeno, es decir a la
molécula agua.
Los números que van por delante, se llaman coeficientes e indican molecularidad, es decir la
cantidad de cada tipo de moléculas que interviene. Así por ejemplo la expresión:
O2
Debe leerse como 1(O2) es decir, un grupo de moléculas de oxígeno. Y la expresión:
2H2O
Debe leerse como 2(H2O), es decir dos grupos o moléculas, cada uno de los cuales se
encuentra formado por dos átomos de hidrógeno y uno de oxígeno.
Finalmente vemos que H2 y O2 se encuentran en la situación "antes de", es decir del lado de los
reactivos y H2O se encuentra en la situación de "despues de", es decir del lado de los
productos. La ecuación completa debería leerse así:
«Una molécula de oxígeno diatómico (O2) reacciona químicamente con dos moléculas de
Hidrógeno diatómico (2H2) para formar dos moléculas de agua (2H2O)»
Método por tanteo
El método de tanteo se basa simplemente en modificar los coeficientes de uno y otro lado de la
ecuación hasta que se cumplan las condiciones de balance de masa. No es un método rígido,
aunque tiene una serie de delineamientos principales que pueden facilitar el encontrar
rápidamente la condición de igualdad.
Balance de materia
Se dice que una ecuación química se encuentra ajustada, equilibrada o balanceada cuando
respeta la ley de conservación de la materia, según la cual la cantidad de átomos de cada
elemento debe ser igual del lado de los reactivos (antes de la flecha) y en lado de los productos
de la reacción (después de la flecha).
Para balancear una ecuación, se deben ajustar los coeficientes, y no los subíndices. Esto es
así porque cada tipo de molécula tiene siempre la misma composición, es decir se encuentra
siempre formada por la misma cantidad de átomos, si modificamos los subíndices estamos
nombrando a sustancias diferentes:
H2O es agua común y corriente, pero H2O2 es peróxido de hidrógeno una sustancia química
totalmente diferente. Al modificar los coeficientes sólo estamos diciendo que ponemos mas o
menos de tal o cual sustancia.
Por ejemplo, en la reacción de combustión de metano (CH4), éste se combina con oxígeno
molecular(O2) del aire para formar dióxido de carbono (CO2) y agua. (H2O). La reacción sin
ajustar será:
En esta ecuación, las incógnitas son a, b, c y d, que son los denominados coeficientes
estequiométricos. Para calcularlos, debe tenerse en cuenta la ley de conservación de la
materia, por lo que la suma de los átomos de cada elemento debe ser igual en los reactivos y
en los productos de la reacción. Existen tres métodos principales para balancear una ecuación
estequiométrica, que son, el método de tanteo, el método algebraico y el método de ion-
electrón para ecuaciones de tipo redox.
Velocidad de reacción
(Redirigido desde Velocidad de reaccion)
Corrosión del hierro - una reacción química con una velocidad de reacción lenta.
Madera ardiendo - una reacción químicacon una velocidad de reacción rápida.
La velocidad de reacción se define como la cantidad de sustancia que reacciona por unidad
de tiempo. Por ejemplo, la oxidación del hierro bajo condiciones atmosféricas es una reacción
lenta que puede tomar muchos años,1 pero la combustión del butano en un fuego es una
reacción que sucede en fracciones de segundo.
La cinética química es la parte de la fisicoquímica que estudia las velocidades de reacción,
la dinámica química estudia los orígenes de las diferentes velocidades de las reacciones. El
concepto de cinética química se aplica en muchas disciplinas, tales como la ingeniería
química,enzimología e ingeniería ambiental.
Definición formal de velocidad de reacción
Considérese una reacción química típica:
aA + bB → pP + qQ
Las letras minúsculas (a, b, p, y q) representan los coeficientes estequiométricos,
mientras que las letras mayúsculas representan a losreactante (A y B) y los productos (P
y Q). De acuerdo a la definición del Libro Dorado de la IUPAC2 la velocidad de
reacción v (también r o R) de una reacción química que se da en unsistema cerrado bajo
condiciones de volumen constante, sin que haya acumulación de intermediarios de
reacción, está definida por:
(NOTA:La velocidad de reacción es siempre positiva. El signo '-' está presente en
los términos que involucran a los reactantes porque la concentración de reactante
disminuye en el tiempo.) La IUPAC2 recomienda que la unidad de tiempo siempre
deba ser el segundo. En tal caso, la velocidad de reacción difiere de la velocidad de
aumento de la concentración de un producto P por un factor constante (el recíproco
de su número estequiométrico) y por un reactante A por menos el recíproco del
número estequiométrico. Generalmente, la velocidad de reacción tiene las unidades
dm−3·s−1.
Es importante tener en cuenta que la definición previa es válida sólo para una sola
reacción, en un sistema cerrado de volumen constante. Esta suposición muy
frecuentemente implícita debe ser explicitada, de lo contrario la definición es
incorrecta: si se agrega agua a un recipiente conteniendo agua salada, la
concentración de la sal disminuye, aunque no haya reacción química.
Para cualquier sistema en general, debe tomarse en cuenta el balance de
masas completo: ENTRANTE - SALIENTE + GENERACIÓN = ACUMULACIÓN.
Cuando se aplica al caso más simple señalado previamente, esta ecuación se
reduce a:
Para una sola reacción en un sistema cerrado de volumen variable,
puede usarse la denominada velocidad de conversión, con el fin de evitar
la manipulación de concentraciones. La velocidad de conversión está
definida como la extensión de reacción con respecto al tiempo.
es el coeficiente estequiométrico para la sustancia i , es el
volumen de reacción, y es la concentración de la sustancia i.
Cuando se forman productos laterales o intermediarios de reacción,
la IUPAC2 recomienda el uso de los términos velocidad de
aparición y velocidad de desaparición para los productos y
reactantes, respectivamente.
Las velocidades de reacción también pueden ser definidas usando
una base diferente al volumen del reactor. Cuando se usa
un catalizador, la velocidad de reacción puede ser expresada en
base al peso del catalizador (mol g−1 s−1) o área de la superficie del
mismo (mol m−2 s−1). Si se toma como base un sitio específico de un
catalizador que puede ser contado rigurosamente por un método
específico, la velocidad puede ser expresada en unidades de s−1,
por lo que se le denomina frecuencia de cambio, o de conversión.~~
[editar]Factores que afectan la velocidad de reacción
Naturaleza de la reacción: Algunas reacciones son, por su
propia naturaleza, más rápidas que otras. El número de
especies reaccionantes, su estado físico las partículas que
forman sólidos se mueven más lentamente que las de gases o
de las que están en solución, la complejidad de la reacción, y
otros factores pueden influir enormemente en la velocidad de
una reacción.
Concentración: La velocidad de reacción aumenta con la
concentración, como está descrito por la ley de velocidad y
explicada por la teoría de colisiones. Al incrementarse la
concentración de los reactantes,
la frecuencia de colisión también se incrementa.
Presión: La velocidad de las reacciones gaseosas se
incrementa muy significativamente con la presión, que es, en
efecto, equivalente a incrementar la concentración del gas. Para
las reacciones en fase condensada, la dependencia en la
presión es débil, y sólo se hace importante cuando la presión es
muy alta.
Orden: El orden de la reacción controla cómo afecta la
concentración (o presión) a la velocidad de reacción.
Temperatura: Generalmente, al llevar a cabo una reacción a una
temperatura más alta provee más energía al sistema, por lo que
se incrementa la velocidad de reacción al ocasionar que haya
más colisiones entre partículas, como lo explica la teoría de
colisiones. Sin embargo, la principal razón porque un aumento
de temperatura aumenta la velocidad de reacción es que hay un
mayor número de partículas en colisión que tienen la energía de
activación necesaria para que suceda la reacción, resultando en
más colisiones exitosas. La influencia de la temperatura está
descrita por la ecuación de Arrhenius. Como una regla de cajón,
las velocidades de reacción para muchas reacciones se
duplican por cada aumento de 10 ° C en la
temperatura,3 aunque el efecto de la temperatura puede ser
mucho mayor o mucho menor que esto. Por ejemplo, el carbón
arde en un lugar en presencia de oxígeno, pero no lo hace
cuando es almacenado a temperatura ambiente. La reacción es
espontánea a temperaturas altas y bajas, pero a temperatura
ambiente la velocidad de reacción es tan baja que es
despreciable. El aumento de temperatura, que puede ser creado
por una cerilla, permite que la reacción inicie y se caliente a sí
misma, debido a que es exotérmica. Esto es válido para muchos
otros combustibles, como el metano, butano, hidrógeno, etc.
La velocidad de reacción puede ser independiente de la temperatura
(no-Arrhenius) o disminuir con el aumento de la temperatura (anti-
Arrhenius). Las reacciones sin una barrera de activación (por
ejemplo, algunas reacciones de radicales) tienden a tener una
dependencia de la temperatura de tipo anti Arrhenius: la constante
de velocidad disminuye al aumentar la temperatura.
Solvente: Muchas reacciones tienen lugar en solución, y las
propiedades del solvente afectan la velocidad de reacción.
La fuerza iónica también tiene efecto en la velocidad de
reacción.
Radiación electromagnética e intensidad de luz: La radiación
electromagnética es una forma de energía. Como tal, puede
aumentar la velocidad o incluso hacer que la reacción sea
espontánea, al proveer de más energía a las partículas de los
reactantes. Esta energía es almacenada, en una forma u otra,
en las partículas reactantes (puede romper enlaces, promover
moléculas a estados excitados electrónicos o vibracionales, etc),
creando especies intermediarias que reaccionan fácilmente. Al
aumentar la intensidad de la luz, las partículas absorben más
energía, por lo que la velocidad de reacción aumenta. Por
ejemplo, cuando el metano reacciona con cloro gaseoso en la
oscuridad, la velocidad de reacción es muy lenta. Puede ser
acelerada cuando la mezcla es irradiada bajo luz difusa. En luz
solar brillante, la reacción es explosiva.
Un catalizador: La presencia de un catalizador incrementa la
velocidad de reacción (tanto de las reacciones directa e inversa)
al proveer de una trayectoria alternativa con una menorenergía
de activación. Por ejemplo, el platino cataliza la combustión del
hidrógeno con el oxígeno a temperatura ambiente.
Isótopos: El efecto isotópico cinético consiste en una velocidad
de reacción diferente para la misma molécula si tiene isótopos
diferentes, generalmente isótopos de hidrógeno, debido a la
diferencia de masa entre el hidrógeno y el deuterio.
Superficie de contacto: En reacciones en superficies, que se
dan por ejemplo durante catálisis heterogénea, la velocidad de
reacción aumenta cuando el área de la superficie de contacto
aumenta. Esto es debido al hecho de que más partículas del
sólido están expuestas y pueden ser alcanzadas por moléculas
reactantes.
Mezclado: El mezclado puede tener un efecto fuerte en la
velocidad de reacción para las reacciones en fase homogénea y
heterogénea..
Todos los factores que afectan una velocidad de reacción, excepto
para la concentración y el orden de reacción, son tomados en
cuenta en la ecuación de velocidad de la reacción.
[editar]Ecuación de velocidad
Artículo principal: Ecuación de velocidad
Para una reacción química n A + m B → C + D, la ecuación de
velocidad o ley de reacción es una expresión matemática usada en
cinética química que relaciona la velocidad de una reacción con
la concentración de cada reactante. Es del tipo:
En esta ecuación, k(T) es el coeficiente cinético de
reacción o constante de velocidad, aunque no es realmente
una constante, debido a que incluye todos los parámetros que
afectan la velocidad de reacción, excepto la concentración, que
es explícitamente tomada en cuenta. De todos los parámetros
descritos anteriormente, normalmente la temperatura es el más
importante. Los exponentens n' y m' son
denominados órdenes y dependen del mecanismo de
reacción.
La estequiometría, molecularidad (el número real de moléculas
que colisionan) y el orden de reacción sólo coinciden
necesariamente en las reacciones elementales, esto es en las
reacciones que proceden en un solo paso. La ecuación de
reacción para reacciones elementales coincide con el proceso
que tiene lugar a nivel atómico, donde n moléculas del tipo A
colisionan con m moléculas del tipo B (n más m es la
molecularidad).
Para gases, la ley de velocidad puede ser expresada también
en unidades de presión, usando la ley de gases ideales. Al
combinar la ley de velocidad con un balance de masa para el
sistema en el que sucede la reacción, puede derivarse una
expresión para la velocidad de cambio en la concentración.
Para un sistema cerrado con un volumen constante, tal
expresión puede verse como: