Bienvenidos a "Geoscience for Dummies", un espacio dedicado a la divulgación y análisis en el campo de las geociencias, creado por estudiantes y egresados del Instituto Politécnico Nacional especializados en ingeniería geofísica con énfasis en la exploración petrolera y métodos de exploración potencial. Nuestro objetivo es desmitificar y explicar de manera accesible los conceptos clave de las geociencias.

Únete al mejor blog de divulgación sobre geociencias

Entradas populares

Historia y desarrollo petrolero con enfoque en la sísmica de reflexión en el mundo y la industria mexicana

Sísmica de Reflexión

La sísmica ha contribuido mucho a la sociedad: nos ha ayudado a descubrir y describir recursos de hidrocarburos, acuíferos, anomalías geotérmicas, peligros en el fondo marino y mucho más. El primer descubrimiento con sísmica no se produjo hasta varios años después, 1921 fue el año en que se inventó el método de reflexión sísmica.

Figura 1. Esquema referente a la exploración sísmica de reflexión, donde se pueden visualizar los principales fenómenos que ocurren durante la adquisición. Fuente: Gustavo, M.(2018) [1]

Primeros avances (Finales del siglo XVII - Principios del siglo XX)

1600: Pierre de Fermat, un matemático francés, formuló el principio de Fermat, que establece que la trayectoria tomada por la luz (o una onda en general) entre dos puntos es aquella que toma el menor tiempo posible. En la sísmica, este principio se aplica para predecir la trayectoria de las ondas sísmicas a través de diferentes capas geológicas. La aplicación del principio de Fermat en la sísmica de reflexión ayuda a determinar cómo las ondas viajan a través de medios con diferentes velocidades sísmicas, lo que es fundamental para la migración de datos y la interpretación de reflexiones complejas.

Reflection and Fermat's Principle
Figura 2. Pricipio de Fermat: la luz sigue la trayectoria de menor tiempo.


1678:  Hooke R. (1678) [2], un científico británico, formuló la Ley de Hooke, que describe el comportamiento elástico de los materiales. La ley establece que la deformación de un material es proporcional a la fuerza aplicada, hasta el límite elástico del material. En la sísmica de reflexión, la Ley de Hooke es fundamental para entender cómo las ondas sísmicas se propagan a través de la Tierra. Las ondas sísmicas generan esfuerzos y deformaciones en las rocas, y el comportamiento elástico de las rocas, descrito por la Ley de Hooke, determina la velocidad y el comportamiento de las ondas de compresión (ondas P) y las ondas de corte (ondas S). Esta ley es esencial para modelar cómo las ondas viajan a través de diferentes tipos de roca y para la interpretación de datos sísmicos.

Archivo:Animación1.gif
Figura 3. La ley de Hooke indica que la deformación unitaria de un cuerpo elástico es proporcional a la fuerza que se le aplica.

1690: Huygens C. (1962) [3], un físico y matemático holandés, propuso el principio de Huygens, que establece que cada punto en un frente de onda puede ser considerado como una fuente de ondas secundarias que se propagan hacia afuera en todas las direcciones. Este principio es fundamental para entender cómo las ondas se propagan a través de medios inhomogéneos y cómo se forman las ondas reflejadas y refractadas en la sísmica. En el contexto de la sísmica de reflexión, el principio de Huygens es esencial para explicar cómo las ondas sísmicas interactúan con interfaces geológicas y cómo se generan las reflexiones que se registran en la superficie. Las reflexiones sísmicas son el resultado de la superposición constructiva de estas ondas secundarias en las interfaces entre capas con diferentes propiedades físicas.

Principio de Fresnel - Huygens - Wikipedia, la enciclopedia libre
Figura 4. Principio de Fresnel-Huygens. Todo punto de un frente de onda inicial puede considerarse como una fuente de ondas esféricas secundarias que se extienden en todas las direcciones con la misma velocidad, frecuencia y longitud de onda que el frente de onda del que proceden.

1807: Jean-Baptiste Joseph Fourier (1955) [4], un matemático francés, desarrolló la transformada de Fourier a principios del siglo XIX. Esta transformada es una herramienta matemática que descompone una función en sus componentes de frecuencia, convirtiendo una señal del dominio del tiempo al dominio de la frecuencia. En la sísmica de reflexión, la transformada de Fourier es fundamental para el procesamiento de señales. Permite analizar la frecuencia de las ondas sísmicas y filtrar el ruido, mejorando la claridad de las imágenes sísmicas. También es crucial en la migración de datos y en la inversión sísmica, donde se utilizan componentes de frecuencia para reconstruir la imagen del subsuelo.

Fourier Transformation for a Data Scientist - KDnuggets
Figura 5. Principio de Fresnel-Huygens.  Es una transformación matemática empleada para transformar señales entre el dominio del tiempo (o espacial) y el dominio de la frecuencia, que tiene muchas aplicaciones en la física y la ingeniería.

1820: Augustin-Jean Fresnel, un físico francés, desarrolla la teoría de la difracción, que establece cómo las ondas (incluidas las ondas sísmicas) se propagan y se ven afectadas por los obstáculos en su camino. Aunque Fresnel trabajó principalmente con luz, sus teorías sobre la propagación de ondas sentaron las bases para comprender cómo las ondas sísmicas interactúan con las diferentes capas de la Tierra.

1827: Augustus Edward Hough Love formula la teoría matemática de las ondas elásticas en sólidos, conocidas hoy como ondas de Love, que son un tipo de onda superficial sísmica. Este trabajo es fundamental para la comprensión del comportamiento de las ondas elásticas, que son cruciales en la sísmica de reflexión.

Surface Waves | UPSeis | Michigan Tech
Figura 6. Comportamiento de la onda Love.

1885: Lord Rayleigh (John William Strutt) (1945) [5], otro físico británico, describe las ondas de Rayleigh, un tipo de onda superficial que también se mueve a través de la corteza terrestre. Las ondas de Rayleigh, junto con las ondas de cuerpo (ondas P y S), forman parte del conjunto de ondas sísmicas que se utilizan en la exploración sísmica.

Rayleigh wave shows rolling motion of a particle below the surface.
Figura 7. Comportamiento de la onda Rayleigh.

1909: Andrija Mohorovičić, un geofísico croata, descubre la discontinuidad de Mohorovičić (Moho), la cual es la frontera entre la corteza terrestre y el manto. Mohorovičić utilizó el análisis de las ondas sísmicas generadas por un terremoto para identificar la diferencia en la velocidad de las ondas a través de diferentes capas de la Tierra, lo que le permitió inferir la existencia de una discontinuidad. Este hallazgo es un precursor clave para la sísmica de reflexión, que se basa en la identificación de fronteras entre diferentes capas geológicas.

1914: Albert Michelson y Francis Pease aplican principios de interferometría para medir la deformación de la corteza terrestre. Aunque este trabajo no está directamente relacionado con la sísmica de reflexión, influye en el desarrollo de técnicas para medir y analizar la propagación de ondas elásticas a través de la Tierra.

1919: Ludger Mintrop, un geofísico alemán, utiliza el geófono, un dispositivo que él mismo desarrolló, para detectar y registrar ondas sísmicas en experimentos de refracción. Aunque sus primeros trabajos se centraron en la sísmica de refracción, estos desarrollos tecnológicos serían fundamentales para la posterior implementación de la sísmica de reflexión.

1921: Se realiza el primer experimento exitoso de sísmica de reflexión en Oklahoma, Estados Unidos, llevado a cabo por la Compañía de Exploración Geofísica de Tulsa (más tarde conocida como Seismos), llevado a cabo por Clarence Karcher, William Haseman, Irving Perrine, William Kite y Daniel Ohern. Este experimento es considerado el primer uso práctico de la sísmica de reflexión, demostrando que es posible utilizar ondas sísmicas para mapear las estructuras del subsuelo. Este experimento, aunque rudimentario en comparación con los estándares modernos, marca el nacimiento de la sísmica de reflexión como herramienta para la exploración de hidrocarburos.

Figure 5 from Karcher’s patent, ‘Determination of subsurface formations’. It illustrates the arrivals of different wave modes at the receivers.
Figura 8. Tomado de la patente de Karcher, «Determinación de las formaciones del subsuelo». Ilustra las llegadas de distintos modos de onda a los receptores. Fuente: Hall M. (2001) [7].
  • 1919: Karcher grabó el primer registro sísmico de  reflexión con fines de exploración cerca de la Oficina Nacional de Estándares (ahora NIST) en Washington, DC. 
  • Abril de 1921: Karcher, mientras trabajaba en la Oficina Nacional de Estándares (ahora NIST) de Washington, DC, diseñó y construyó aparatos para registrar las reflexiones sísmicas. 
  • 4 de Junio de 1921: Las primeras pruebas de campo del sismógrafo de reflexión en Belle Isle, Oklahoma City, utilizando una fuente de dinamita. Se hicieron varias pruebas a diferentes distancias entre fuentes y receptoras (Offset).
  • 14 de julio de 1921: Pruebas en las montañas Arbuckle. El equipo de Karcher, Haseman, Ohern y Perrine determina las velocidades de la caliza Hunton, el esquisto Sylvan y la caliza Viola.
  • Agosto de 1921: El grupo se desplaza a Vines Branch, donde «se midió la primera sección geológica sismográfica de reflexión del mundo», según una placa conmemorativa en la I-35 de Oklahoma. Se registra la profundidad de la caliza Viola y se observa que cambia con la estructura geológica.
Figura 9. Primera sección geológica sismográfica de reflexión del mundo, en Vines Branch, Ohklahoma. Fuente: Hall M. (2001) [7].

  • 1925: Karcher creó una nueva empresa -Geophysical Research Corporation, GRC, ahora parte de Sercel- con Everette Lee DeGolyer, de Amerada Petroleum Corporation, y dinero del vizconde Cowdray (propietario de Pearson, ahora una editorial, pero originalmente una empresa de construcción).

Gracias a esta empresa, Karcher acabó imponiéndose en la carrera por probar el método de reflexión sísmica. Por lo que se sabe, HB Peacock cartografiaron con éxito la estructura de la caliza ordovícica Viola. El 4 de diciembre de 1928, Amerada terminó el pozo Hallum nº 1 cerca de Maud, Oklahoma, el primer descubrimiento de petróleo perforado con datos de reflexión sísmica.

The locations (as best I Can tell) of the first test of reflection seismology, the first seismic section, and the first seismic survey that led to a discovery. The map also shows where Karcher grew up; he went to university in Norman, south of Oklah…
Figura 10. Las ubicaciones de la primera prueba de sismología de reflexión, la primera sección sísmica y el primer estudio sísmico que condujo a un descubrimiento. El mapa también muestra dónde creció Karcher; fue a la universidad en Norman, al sur de la Ciudad de Ohlahoma. Fuente: Hall M. (2001) [7].

1927: Reginald Fessenden, un inventor canadiense, realiza algunos de los primeros experimentos de sísmica de reflexión en ambientes marinos. Fessenden utiliza un generador de ondas sonoras y detectores para mapear el fondo del océano. Su trabajo representa una de las primeras aplicaciones de la sísmica de reflexión en la exploración submarina.

1928: Harry Nyquist, un ingeniero sueco-estadounidense, formuló el teorema de muestreo de Nyquist en 1928. Este teorema establece que para reconstruir completamente una señal a partir de sus muestras, la tasa de muestreo debe ser al menos el doble de la frecuencia más alta presente en la señal. En la adquisición de datos sísmicos, el teorema de Nyquist es crucial para garantizar que los datos se muestrean a una tasa adecuada para evitar el aliasing, un fenómeno en el que las frecuencias superiores a la mitad de la tasa de muestreo se pliegan en frecuencias más bajas, distorsionando la imagen sísmica.

A [Mathematical] Analysis of Sample Rates and Audio Quality – Techbytes
Figura 11. Teorema del muestreo de Nyquist. A mayor nivel de muestras, la señal original podrá ser replicada.

1930: Stephen Butterworth desarrolla el filtro Butterworth, conocido por su respuesta en frecuencia "plana", sin ondulaciones en la banda de paso. Aunque inicialmente diseñado como un filtro analógico, sus principios fueron adaptados posteriormente para los filtros digitales.

1930s: Durante esta década, se desarrollan los primeros fundamentos teóricos formales para la sísmica de reflexión. Los geofísicos comienzan a entender que las ondas sísmicas, cuando encuentran una discontinuidad entre capas de diferentes densidades o velocidades, se reflejan y refractan según las leyes de Snell. Las leyes de Snell, que describen cómo se refractan las ondas en la interfaz entre dos medios, son fundamentales para la interpretación sísmica.

1930s: La Compañía de Exploración Geofísica de Tulsa sigue desarrollando y perfeccionando la técnica. A lo largo de esta década, la sísmica de reflexión se convierte en una herramienta estándar en la exploración petrolera en Estados Unidos y Europa.

1936: Herman W. Kallenberg, trabajando para Shell Oil Company, hace avances significativos en la adquisición y procesamiento de datos sísmicos, ayudando a mejorar la calidad de las imágenes reflejadas.

1940s: La Segunda Guerra Mundial impulsa avances significativos en electrónica y procesamiento de señales, tecnologías que luego serían aplicadas en la sísmica de reflexión. En esta época, se desarrollan registradores sísmicos más precisos y se comienza a utilizar la sísmica de alta resolución para identificar estructuras geológicas más complejas.

1932:  El principio de superposición es un concepto fundamental en la física de ondas que establece que cuando dos o más ondas se encuentran en un punto, la onda resultante es la suma algebraica de las ondas individuales. Este principio es aplicable tanto a ondas constructivas como destructivas. En la sísmica de reflexión, el principio de superposición se aplica en la formación de ondas complejas cuando múltiples reflexiones y refracciones interactúan. Esto es importante en el procesamiento de señales, donde se deben separar las señales útiles de las interferencias y el ruido.

Figura 12. Representación del principio de superposición de ondas

1946:  Dennis Gabor (1946) [8], un físico húngaro-británico, introdujo el análisis de Gabor, que es una técnica para analizar señales en el dominio tiempo-frecuencia, utilizando ventanas de análisis de tiempo limitado. Esto permite estudiar cómo las frecuencias de una señal varían a lo largo del tiempo.En la sísmica de reflexión, el análisis de Gabor es utilizado en la análisis espectral para estudiar la evolución temporal de las frecuencias sísmicas, lo cual es útil para mejorar la resolución temporal de los datos sísmicos y para la detección de variaciones sutiles en la litología del subsuelo.

Figura 13. Visualización de un horizonte sísmico con el atributo sísmico de la transformada contínua de la ondícula (CWT, por sus siglas en inglés), en donde se utiliza el análisis de Gabor para la creación de mapas de frecuencias dominantes específicas, en este caso (10, 20 y 60 Hz).

1949: En México, Pemex realiza sus primeros estudios de sísmica de reflexión, aplicando los principios físicos desarrollados anteriormente. Estos estudios son pioneros en el uso de la sísmica de reflexión en la exploración de hidrocarburos en México.

1949:  El filtro de Wiener, Desarrollado por Norbert Wiener, este filtro es una técnica adaptativa que minimiza el error cuadrático medio entre la señal filtrada y la señal deseada. En la sísmica, se utiliza para mejorar la relación señal-ruido en los datos.

1950: W. Harry Mayne, inventor del método de reflexión del punto común , para evitar el "aglomeramiento" de los datos sísmicos registrados provocado por el uso de matrices de sensores de geófonos, necesitaba una matriz muy larga para atenuar el ruido, pero cada punto de la matriz debía representar el mismo punto de reflexión del subsuelo. 

Common Mid-Point survey using the DVL-500P
Figura 14. Ejemplificación del punto medio común (CMP por sus siglas en inglés)

Era digital y avances tecnológicos (1950s - 1970s)

1960: Rudolf E. Kálmán introduce el Filtro de Kalman, que es un algoritmo recursivo utilizado para estimar el estado de un proceso dinámico a partir de una serie de mediciones ruidosas. Es uno de los primeros filtros que encuentra aplicaciones en procesamiento de señales digitales.

1965:  James Cooley y John Tukey desarrollan el algoritmo de Transformada Rápida de Fourier (FFT), que permite el procesamiento eficiente de señales digitales, haciendo factible el diseño y aplicación de filtros digitales en tiempo real.

1970:  Filtros FIR (Finite Impulse Response), se desarrollan durante la década de 1960. Son estables y tienen una respuesta de fase lineal, lo que los hace ideales para aplicaciones donde la preservación de la forma de onda es crucial, como en la sísmica de reflexión.

1970s:  En la sísmica de reflexión, Ender Robinson, utilizó a la desconvolución para filtrar y que se utiliza para eliminar los efectos de la fuente sísmica y la respuesta del sistema de grabación, mejorando la resolución temporal de los datos sísmicos. Esta técnica se basa en la teoría de filtros y es un avance crucial en el procesamiento de datos sísmicos.

1960s: Con la introducción de la migración sísmica, los geofísicos pueden corregir las distorsiones causadas por la geometría compleja de las capas del subsuelo. La migración es esencialmente un proceso matemático que ajusta la posición de los reflectores sísmicos, permitiendo obtener una imagen más precisa del subsuelo.

  • Según Yilmaz Ö. (2001) [9] La migración de datos sísmicos consiste en corregir el supuesto de capas geológicas planas mediante una convolución espacial numérica de los datos sísmicos basada en cuadrículas para tener en cuenta los eventos de buzamiento (cuando las capas geológicas no son planas). Existen muchos métodos, como la popular migración Kirchhoff, pero en general se acepta que el procesamiento de grandes secciones espaciales (aperturas) de los datos a la vez introduce menos errores, y que la migración en profundidad es muy superior a la migración en tiempo con grandes buzamientos y con cuerpos salinos complejos.
  • Migración temporal
  • La migración temporal se aplica a los datos sísmicos en coordenadas temporales. Este tipo de migración parte de la suposición de que sólo se producen ligeras variaciones laterales de velocidad, lo que se rompe en presencia de la mayoría de las estructuras interesantes y complejas del subsuelo, especialmente la sal.[6] Algunos de los algoritmos de migración temporal más utilizados son: Migración Stolt, Gazdag y Migración por diferencias finitas.
  • Migración en profundidad
  • La migración en profundidad se aplica a datos sísmicos en coordenadas de profundidad (cartesianas regulares), que deben calcularse a partir de datos sísmicos en coordenadas temporales. Por lo tanto, este método requiere un modelo de velocidad, por lo que requiere muchos recursos, ya que la construcción de un modelo de velocidad sísmica es un proceso largo e iterativo. La gran ventaja de este método de migración es que puede utilizarse con éxito en zonas con variaciones laterales de velocidad, que suelen ser las más interesantes para los geólogos del petróleo. Algunos de los algoritmos de migración en profundidad más utilizados son la migración en profundidad Kirchhoff, la migración en tiempo inverso (RTM), la migración de haz gaussiano y la migración de ecuación de onda.

1970s: Se desarrollan los primeros experimentos de sísmica 3D, liderados por compañías como Exxon y Shell. Estos experimentos demuestran que la obtención de datos tridimensionales permite una visualización más detallada de las estructuras geológicas, lo que facilita la identificación de yacimientos de petróleo y gas. La sísmica 3D emerge como una tecnología revolucionaria. La diferencia clave entre la sísmica 2D y 3D radica en la densidad de los datos adquiridos y la capacidad de crear imágenes tridimensionales del subsuelo, lo que mejora la precisión en la identificación de estructuras geológicas. La sísmica 3D se basa en la adquisición de datos en una red tridimensional, lo que permite un muestreo más completo y detallado de las ondas reflejadas.

Seismic Exploration | Core Energy, LLC
Figura 15. Visualización de un modelo de adquisición de sísmica 3D.

Avances modernos y aplicaciones  (1980s - presente)

1980s: La sísmica 3D se convierte en un estándar de la industria petrolera. Los avances en computación y almacenamiento de datos permiten procesar grandes volúmenes de información, generando imágenes tridimensionales detalladas del subsuelo. Compañías como Western Geophysical y Gulf Oil lideran la implementación de esta tecnología.

1980s-1990s: Chevron y BP introducen el AVO (Amplitude Versus Offset), que analiza cómo la amplitud de las ondas reflejadas varía con el ángulo de incidencia para predecir las propiedades de los fluidos en los reservorios. Al mismo tiempo, se desarrollan los atributos sísmicos, que proporcionan información adicional sobre la litología y la saturación de fluidos a partir de los datos sísmicos. 

AVO Classification - Meta | Innovative AI Analytics and Training Software
Figura 16. Distintas clases de la evaluación AVO.

1990s: Se introduce la sísmica 4D (o sísmica de monitorización del tiempo), que añade la dimensión temporal al análisis. Esto permite monitorear cómo cambian las propiedades del subsuelo con el tiempo, lo que es especialmente útil para la gestión de yacimientos de petróleo y gas.

2000s en adelante: La industria sigue mejorando las técnicas de procesamiento de datos, desarrollando métodos como  la sísmica por inversión de onda completa (FWI, por sus siglas en inglés). Estas técnicas permiten obtener una caracterización más precisa de las propiedades físicas del subsuelo, mejorando la interpretación de los datos sísmicos.

2010s: Los filtros adaptativos se desarrollaron con el avance de las computadoras, los cuáles  ajustan automáticamente los coeficientes del filtro en función de las características cambiantes de la señal. Esto es especialmente útil en la sísmica, donde las condiciones de ruido pueden variar significativamente.

La inteligencia artificial y la sísmica de reflexión en la actualidad.   

En los últimos años, Machine Learning (ML) y la Inteligencia Artificial (IA) han revolucionado la sísmica de reflexión, mejorando significativamente el procesamiento, interpretación y análisis de datos sísmicos. Inicialmente, en la década de 2000, se introdujeron algoritmos como las Support Vector Machines (SVM) y redes neuronales para la clasificación automática de datos sísmicos y la detección de eventos sísmicos, sentando las bases para aplicaciones más avanzadas.

Figura 17. Visualización de un horizonte sísmico con el atributo sísmico de Ant Tracking, el cuál se basa en el comportamiento de las hormigas en la colonia, donde se utiliza un algoritmo de optimización. Como el algoritmo no tiene un sentido "geológico", marca todas las discordancias respecto al atributo de similaridad.

 

Figura 18. Visualización de un horizonte sísmico con el atributo sísmico de detección de fallas por CNN, donde se utilizó un modelo de redes neuronales entrenado con imágenes de fallas y fracturas previamente interpretados.

 En la década de 2010, las Redes Neuronales Convolucionales (CNNs) permitieron la detección automática de fallas y horizontes sísmicos, y se empezaron a aplicar Redes Neuronales Recurrentes (RNNs) y LSTM para mejorar la desconvolución y filtrado adaptativo en el procesamiento sísmico. Además, la migración sísmica se benefició del aprendizaje profundo, acelerando los procesos y mejorando la precisión de las imágenes sísmicas.

Las aplicaciones de ML también han mejorado la interpretación sísmica, con el uso de Redes Generativas Antagónicas (GANs) para simular datos y predecir la litología y los fluidos del subsuelo, y la implementación de IA para la interpretación en tiempo real durante la adquisición de datos sísmicos. En la inversión sísmica, los algoritmos de Deep Learning han permitido obtener modelos más precisos y detallados del subsuelo, optimizando la caracterización de reservorios.

Finalmente, la integración de Big Data y AI ha llevado a una mayor automatización y eficiencia en todo el flujo de trabajo sísmico, desde la adquisición hasta el modelado. Estas tecnologías continúan evolucionando, prometiendo un futuro donde AI juegue un papel aún más crucial en la exploración y producción de hidrocarburos, mejorando la precisión y rapidez en la toma de decisiones geológicas.

Exploración y explotación petrolera en México

La industria petrolera mexicana tiene una historia rica y compleja, que ha jugado un papel crucial en el desarrollo económico del país.
 
CNH flexibiliza oportunidades para las petroleras - Grupo Milenio
Figura 19. Mapa de las cuencas petroleras de México.

Origenes y Desarrollo Temprano

Siglo XIX: La explotación del petróleo en México comenzó a finales del siglo XIX. En 1862, se otorgó la primera concesión para la explotación de hidrocarburos en el estado de Veracruz. Sin embargo, la industria no despegó de manera significativa hasta principios del siglo XX.
 
1863: Primer Pozo Petrolero en México. Este pozo, conocido como el pozo "El Remolino", fue perforado por iniciativa de Manuel Gil y Sáenz, aunque fue un intento rudimentario y no exitoso en términos de producción comercial.

1901: Se promulgó la Ley del Petróleo, que permitió la exploración y explotación de hidrocarburos por empresas privadas, principalmente extranjeras. Las compañías estadounidenses y británicas jugaron un papel dominante en la industria durante estos años.
 
1901: Se crea Petróleos Mexicanos (Pemex), aunque en esta época las concesiones petroleras estaban mayoritariamente en manos de empresas extranjeras como la Mexican Eagle Petroleum Company (una subsidiaria de Royal Dutch Shell).
 
Tlatoani_Cuauhtemoc on X: "Les comparto el primer logotipo de PEMEX el cual  fue presentado en el año de 1938 tras la nacionalización del Petróleo por  Lázaro Cárdenas. En la imagen aparecía un
Figura 20. Logo de PEMEX (1938).
 
1904: Primer gran descubrimieto comercial, en San Diego de la Mar, Tampico. Se considera el primer descubrimiento significativo de petróleo en México, marcando el inicio de la producción comercial a gran escala.  

1908: La empresa británica Pearson and Son, que después se transformaría en la Mexican Eagle Petroleum Company (El Águila), comenzó sus actividades de exploración y producción en México. comenzó a extraer petróleo en México, convirtiéndose en una de las principales operadoras. Al mismo tiempo, empresas como la estadounidense Standard Oil comenzaron a expandir sus operaciones en el país.
 
1910s: La industria petrolera en México se encuentra en sus primeras etapas, centrada principalmente en exploraciones superficiales. No se utilizaban técnicas avanzadas de sísmica de reflexión. La exploración dependía de técnicas geológicas básicas y de la observación de afloramientos superficiales.

Crecimiento y Nacionalización 

1910 - 1930: Durante este periodo, la producción de petróleo en México creció rápidamente, convirtiéndose en uno de los principales productores mundiales. Sin embargo, las tensiones entre el gobierno mexicano y las empresas extranjeras comenzaron a aumentar debido a las disputas sobre los derechos de propiedad y la distribución de los beneficios.
 
1916: Pozo Cerro Azul 4, el cuál es uno de los más emblemáticos en la historia petrolera de México. El 10 de febrero de 1916, comenzó a fluir de manera incontrolable, alcanzando una producción máxima de 260,000 barriles por día durante su pico, con una profundidad aproximada de 600 m. En su momento, fue considerado el pozo de mayor producción en el mundo. 

 
 
No hay ninguna descripción de la foto disponible.
Figura 21. Flujo de petróleo descotrolado del pozo Cerro Azul 4.
 
1938: El 18 de marzo de este año, el presidente Lázaro Cárdenas decretó la expropiación de las compañías petroleras extranjeras y la nacionalización de la industria. Esto dio origen a la creación de Petróleos Mexicanos (PEMEX), que se convirtió en la única empresa responsable de la exploración, producción, refinación y comercialización del petróleo en México.
 
1940s: Después de la expropiación petrolera en 1938, Pemex comienza a explorar y adoptar tecnologías más avanzadas para la exploración de hidrocarburos. Es en esta década cuando se introduce la sísmica de reflexión en México, inicialmente en colaboración con empresas estadounidenses que ya habían desarrollado la tecnología.
 
1949: Pemex inicia sus primeros estudios sísmicos de reflexión, aplicando la tecnología en la región del Golfo de México. Estas primeras exploraciones ayudan a identificar estructuras geológicas profundas que no podían detectarse con métodos tradicionales.
 
1950s: Pemex intensifica el uso de la sísmica de reflexión en varias cuencas del país, incluyendo la Cuenca de Veracruz y la Cuenca del Sureste. Estos estudios conducen al descubrimiento de importantes yacimientos de petróleo y gas, que luego se convertirían en pilares de la producción petrolera en México.
 
1972: Se descubre el Campo de Cantarell en la Sonda de Campeche, uno de los mayores yacimientos petroleros en la historia de México. Este descubrimiento fue posible gracias a la aplicación avanzada de la sísmica de reflexión en el fondo marino. Cantarell se convertiría en un motor clave para la economía mexicana durante las décadas siguientes. 
 
El triste fin de Rudesindo Cantarell, descubridor del yacimiento petrolero  más grande de México - México Desconocido
Figura 22. Foto de Rudensindo Cantarell, pescador que descubrió emanaciones naturales de hidrocarburo en el Golfo de México, frente a las costas de Ciudad del Carmen.

Era Moderna

1976: Pozo Cantarell,  Descubierto en 1976, fue uno de los mayores yacimientos petroleros en el mundo. Su producción alcanzó un pico de 2.1 millones de barriles por día en 2004, representando aproximadamente el 63% de la producción total de México en ese año.

1940 - 1980: Durante este periodo, PEMEX se consolidó como una de las empresas petroleras más grandes del mundo. México experimentó un auge económico impulsado por los ingresos petroleros, especialmente durante los años 70 con el descubrimiento de grandes yacimientos como el de Cantarell.
 
1980s: Pemex adopta la sísmica 3D, una tecnología que permite obtener imágenes tridimensionales del subsuelo. Esta técnica mejora significativamente la capacidad de identificar y caracterizar yacimientos petroleros, especialmente en áreas complejas como la Sonda de Campeche. La sísmica 3D se convierte en un estándar en la exploración petrolera en México.

1980 - 2000: La industria enfrentó desafíos debido a la caída de los precios internacionales del petróleo y a problemas de ineficiencia y corrupción dentro de PEMEX. Sin embargo, la compañía continuó siendo un pilar de la economía mexicana.
 
1990s: La exploración offshore (en aguas profundas) se expande significativamente. La sísmica de reflexión se utiliza extensivamente para mapear estructuras en el Golfo de México, lo que lleva al descubrimiento de nuevos yacimientos en aguas profundas. La inversión en tecnología y el desarrollo de la sísmica 3D y 4D en estas áreas permite optimizar la extracción y mejorar la eficiencia de los proyectos de exploración.
 
2000s: Pemex continúa modernizando sus técnicas de exploración sísmica, adoptando tecnologías como la sísmica 4D, que permite el monitoreo de los cambios en los yacimientos a lo largo del tiempo. Esto es particularmente importante para la gestión de yacimientos maduros como Cantarell, que requiere estrategias avanzadas para mantener la producción.
 
Example of 4D seismic technology: time-lapse seismic images of the... |  Download Scientific Diagram
Figura 23. Ejemplo de tecnología sísmica 4D: imágenes sísmicas de lapsos de tiempo de la pluma de CO 2 de Sleipner. (arriba) perfil sísmico a lo largo de una línea y (abajo) vista en planta de la amplitud sísmica en el campo (Chadwick et al. (2010)).
 
2002: Pozo Maloob 103; es uno de los pozos más productivos del complejo Ku-Maloob-Zaap, que superó a Cantarell en producción total a partir de 2009. Maloob No. 103 ha tenido una producción significativa, superando los 500,000 barriles por día. 
 
2013: Según Valladares A, Garza Treviño EM. (2000) [11], con la reforma energética en México, se abre el sector petrolero a la inversión privada. Esto lleva a una mayor competencia y colaboración en el uso de tecnologías avanzadas de sísmica de reflexión, especialmente en exploración en aguas profundas y no convencionales.
 
2018: Se descubren nuevos yacimientos en aguas profundas del Golfo de México, gracias a la sísmica de reflexión y tecnologías avanzadas como la inversión sísmica y el procesamiento de datos con inteligencia artificial.

Reformas y Actualidad

2013: Bajo la presidencia de Enrique Peña Nieto, se llevó a cabo una reforma energética que abrió la industria petrolera a la inversión privada por primera vez desde 1938. Esto permitió que empresas extranjeras y privadas mexicanas pudieran participar en la exploración y producción de petróleo bajo contratos con el gobierno.

2020 en adelante: La administración del presidente Andrés Manuel López Obrador ha dado prioridad a fortalecer a PEMEX, revirtiendo en parte algunas de las políticas de apertura del sector. Sin embargo, el contexto global de transición hacia energías limpias y la baja en los precios del petróleo han planteado nuevos retos para la industria petrolera mexicana.

Conclusión

La industria petrolera mexicana ha sido un motor clave para el desarrollo económico del país, desde sus inicios en manos extranjeras hasta la creación y consolidación de PEMEX. Sin embargo, enfrenta desafíos significativos en el contexto actual, tanto en términos de sostenibilidad como de competencia internacional, que va de la mano con el uso de tecnología enfocada a la exploración y producción; en el caso específico de la sísmica de reflexión, México ha tomado un papel importante, ya que la gran complejidad de las estructuras geológicas de México, require un avance paulatino para reducir el riesgo que existe en la explotación de yacimientos, en casos especiales los del Golfo de México o yacimientos profundos terrestres.

Bibliografía

[1]    Gustavo, M. V. J. (2018). Evaluación del efecto de diferentes modelos de atenuación en la         migración preapilado en profundidad utilizando las ecuaciones de sentido único. http://               repositoriodspace.unipamplona.edu.co/jspui/handle/20.500.12744/2975
[2]     Hooke R. (1678).Lectures de Potentia Restitutiva, or of Spring. London: J. Martyn.
[3]     Huygens C. (1962).Treatise on Light. New York: Dover Publications.
[4]     Fourier J. B. J. (1955). The Analytical Theory of Heat. New York: Dover Publications.
[5]     Rayleigh J.W. (1945). The Theory of Sound. New York: Dover Publications.
[6]     Mohorovičić A. Das Beben vom 8. X. 1909. Jahrbuch der Meteorologischen                                 Observatoriums in Zagreb. 1910;9(4):1-63.
[7]    Hall, M. (2018, 4 diciembre). 90 years of seismic exploration — Agile. Agile. https://                    agilescientific.com/blog/2018/12/4/90-years-of-seismic-exploration.
[8]    Gabor D. (1946). Theory of Communication. Part 1: The Analysis of Information. J Inst                 Electr Eng;93(26):429-41.  
[9]   Yilmaz Ö. (2001). Seismic Data Analysis: Processing, Inversion, and Interpretation of                   Seismic Data. Tulsa: Society of Exploration Geophysicists.
[10]   Chadwick, A., Williams, G., Delepine, N., Clochard, V., Labat, K., Sturton, S.,                               Buddensiek,            M.-L., Dillen, M., Nickel, M., Lima, A.L., Arts, R., Neele, F., and                     Rossi, G., 201                            Quantitative analysis of time-lapse seismic monitoring data          at the Sleipner CO2 storage             operation. The Leading Edge, 29, 170–177. 
[11]   Valladares A, Garza Treviño EM. (2000). Petróleo y poder en México. Ciudad de México: Fondo            de Cultura Económica

Publicación realizada por Hugo Olea y Kevin García

Contactos: 

LinkedIn - Hugo Olea Kevin García

Correo - hugoolea03@gmail.com y kevingarciasce@gmail.com

No hay comentarios.:

Publicar un comentario