Las nuevas tecnologías de sensado remoto han potenciado la entrada intensiva de datos espacio-temporales y espectrales, automatizando entre otros el trabajo intensivo en la captura y análisis de información sobre el crecimiento de cultivos [1]. En la actualidad, gracias al desarrollo de nuevos sensores es posible realizar análisis espacial y espectral a diferentes escalas, ya sea a través de satélites o mediante sensores portátiles para monitorear los cultivos de forma directa o mediante vehículos aéreos no tripulados (Drones). Las herramientas de detección remota incluyen sensores rojo-verde-azul (RGB) [2], sensores multiespectrales [3], sensores hiperespectrales [4] y sensores térmicos [5]. Gracias a esto las aplicaciones de la teledetección se han extendido a varias áreas de la agricultura de precisión, como por ejemplo, en la detección del estrés ambiental [6], las enfermedades de los cultivos [1] y la estructura fisiológica de los cultivos durante la temporada de crecimiento [7]. Aunque actualmente los datos satelitales tienen una resolución espacial más alta y una resolución temporal más corta, lo que permite un monitoreo más eficiente [7], en aplicaciones como la agricultura de precisión se prefiere el monitoreo mediante sensores portátiles [1]. Dentro de los sensores de detección remota la tecnología hiperespectral combina las ventajas de la espectroscopia y la imagen digital [8]. La espectroscopia estudia tanto la luz que reflejan los materiales como su variación de energía en función de la longitud de onda [9]. La reflectancia o cantidad de luz reflejada varía con la longitud de onda ya que en algunos materiales, la luz es dispersada o absorbida a ciertas longitudes de onda [9]. Las IH proporcionan una gran
cantidad de información en comparación con las imágenes digitales RGB. Su ventaja reside en que ofrecen valores de reflectancia a lo largo de una región más amplia del espectro (desde el ultravioleta hasta el infrarrojo) y con una resolución espectral mucho mayor (desde decenas hasta centenares de bandas espectrales), lo cual permite detectar características únicas y propias de los materiales que solo pueden ser vistas con ciertas combinaciones de longitudes de onda. Si bien esta tecnología se desarrolló principalmente para el estudio de la composición y observación de la superficie terrestre a nivel satelital [21], hoy en día se dispone de cámaras hiperespectrales portátiles que aunque aún son una tecnología costosa, ya se están empezando a incorporar en dispositivos móviles celulares. Un ejemplo de esto lo lideran las marcas Huawei y Honor [10], siendo el celular P50 Pocket de Huawei presentado a finales del año 2021 uno de los primeros en incorporar un sensor hiperespectral que permite capturar imágenes fluorescentes, mostrando aquellos colores en longitudes de onda que el ojo no procesa de forma natural. Huawei afirma ser capaz de obtener imágenes más ricas en detalle y color procesando la IH con un motor neural y combinándola con la imagen del sensor principal [10]. Esto muestra cómo el uso de las IH y la inteligencia artificial (IA) podría convertirse en la nueva revolución de la fotografía que actualmente conocemos y de cómo a través de estas podremos realizar múltiples estudios del entorno que nos rodea. En las IH el rango de banda espectro visible e infrarrojo cercano se ha adaptado al monitoreo de cultivos en regiones agrícolas [1]. Estudios previos han demostrado que el rango de longitudes de onda de esta región se puede usar directamente para estimar diversos aspectos de la plantas (estrés por falta de agua o de minerales, estado fenológico, enfermedades, etc.) a partir de la distribución espectral de las hojas [11–12]. Por ello las cámaras IH portátiles para estudios agrícolas suelen emplear este rango (500 - 900 nm). Dado que en los píxeles de una IH pueden coexistir diversos materiales como por ejemplo vegetación, rocas o agua [13], se hace necesario hablar de un "desmezclado" (unmixing) espectral, según sea la composición de los píxeles puros en la imagen, es decir aquellos compuestos por un único material y firma espectral a los que se denomina endmembers. Keshava definió el desmezclado espectral como el procedimiento por el cual el espectro medido de un píxel mezcla es descompuesto en una colección de espectros constituyentes, o endmembers, y en un conjunto de las correspondientes fracciones o abundancias que indican la proporción de cada endmember presente en dicho píxel [14]. La solución de desmezclado parte de dos modelos de comportamiento, donde existen dos modelos mezcla, un modelo lineal y otro no lineal. En el modelo lineal la reflectancia medida para un píxel puede ser descompuesta en una combinación lineal de cada una de las firmas espectrales de los materiales puros presentes en el píxel. Esta combinación lineal será la suma de las diferentes abundancias de cada endmember que componen el pixel [14]. Aunque su implementación es relativamente sencilla, no permite caracterizar el espectro mezcla para distribuciones en la que los componentes no tienen una distribución superficial homogénea, por otro lado los modelos no lineales tienen una mayor complejidad matemática [14-15]. Las etapas que componen un desmezclado espectral son: estimación del número de endmembers, reducción de dimensionalidad, extracción de endmembers y estimación de abundancias. Algunos de los principales algoritmos usados para la extracción de endmembers son: PPI, ATGP [16], FIPPI [17] y N-FINDR [18].
Nuestra investigación se enfocó en detectar patrones espectrales a partir de un clustering con IH aéreas y algoritmos de extracción de endmembers de un lote de cultivo de trigo que presentaba signos de enfermedades foliares y de espiga. El cultivo de estudio hacía parte de un lote de experimentación y monitoreo de enfermedades en cultivos de trigo, localizado al noreste de la ciudad de Bahía Blanca (Buenos Aires, Argentina), cerca del parque eólico Pampa II. Para la toma de las IH se usó la cámara hiperespectral Rikola (Rikola Ltd., Oulu, Finland) la cual está basada en el interferómetro Fabry-Pérot [19].
La cámara se ubicó a 3 m sobre el cultivo haciendo uso de un soporte. Un hipercubo se generó a partir de solo 22 bandas espectrales que fueron adquiridas en secuencia en el rango de 500-900 nm. Las bandas usadas fueron (501, 513, 531, 533, 542, 549, 570, 604, 629, 670, 675, 679, 694, 696, 700, 704, 733, 750, 753, 774, 849 y 860 nm) que según estudios permiten calcular índices de infección fúngica de diferentes patógenos en cultivos. El tiempo de exposición de la cámara fue de 10 ms, de acuerdo a la radiación ascendente y descendente al momento de la toma, cada banda espectral se adquirió en un formato de 1024 × 648 a 12 bits. El hipercubo se procesó con el software Rikola Imager para corregir la distorsión de la lente y calibrar el nivel de negro. Los números digitales en el rango 0–4095 de cada pixel se convirtieron en radiación espectral, en mW/ (m2 sr nm) con lo cual se conformó el hipercubo de datos hiperespectrales (HDH). Los algoritmos de extracción de endmembers ATGP, FIPPI, N-FINDR y PPI fueron usados con los datos del hipercubo. Para esto usamos PySptools que es una librería que proporciona algoritmos espectrales para Python [20]. Los parámetros principales están predefinidos; solo se definió el número de endmembers a encontrar (q), que no puede ser mayor al número de bandas espectrales del hipercubo, con lo cual q = 22. La salida de cada algoritmo entrega un set de datos (N x p) donde (N) es el número de endmembers inducidos y (p) el número de bandas. Con este set de datos se procedió a generar el mapa de abundancias (MA) para lo cual se asignó a cada pixel el endmember que mayor producto escalar presentará entre N x p y HDH. Para poder ver los endmembers encontrados sobre el área de estudio se generó un pseudoimagen RGB a partir de 3 de las bandas espectrales, las bandas usadas para cada canal fueron R = 629 nm, G = 549 nm y B = 501 nm. Se ajustaron los niveles de saturación de cada canal RGB y la luminancia hasta obtener una pseudoimagen lo más cercana a una imagen RGB convencional. Finalmente sobre la pseudoimagen se marcaron con colores distintivos cada uno de los endmembers a partir de MA.
Los resultados mostraron que a través de los algoritmos FIPPI Y PPI fue posible discriminar un mayor número de endmembers distintivos, siendo 7 los obtenidos una vez se generó el mapa de abundancias, frente a sólo 2 por parte de ATGP y N-FINDR, al visualizar MA y dar un color distintivo a cada endmember se puede observar un clustering sobre la imagen, donde se pudo identificar la distribución de los endmembers en toda la imagen. Sobre la pseudoimagen al marcar cada uno de los endmembers se pudieron identificar patrones distintivos sobre el cultivo de trigo, discriminando las partes de la planta, el suelo y la posible presencia de enfermedades o anormalidades en la planta, las cuales están siendo analizadas con una Agrónoma experta en enfermedades sobre cultivos del Departamento de Agronomía de la Universidad Nacional del Sur, Bahía Blanca. Los resultados preliminares de este estudio muestran que podría ser viable generar sistemas de teledetección de enfermedades de alta resolución sobre cultivos de trigo a partir de IH aéreas y la extracción de sus endmembers. Esta metodología es expandible a diferentes tipos de cultivos y podría realizarse de manera más expansiva mediante el uso de Drones que lleven la cámara hiperespectral a bordo, permitiendo el mapeo de cultivos enteros. De igual manera, se podría hacer uso de los nuevos celulares que están incorporando la tecnología hiperespectral y con lo cual se haría más práctica y económica la adquisición de los datos, e inclusive se podría realizar el procesamiento espectral en una aplicación móvil.
REFERENCIAS
[1] Ge, X.; Ding, J.; Jin, X.; Wang, J.; Chen, X.; Li, X.; Liu, J.; Xie, B. Estimating Agricultural Soil Moisture Content through UAV-Based Hyperspectral Images in the Arid Region. Remote Sens. 2021, 13, 1562. https://doi.org/10.3390/rs13081562
[2] Jin, X.; Liu, S.; Baret, F.; Hemerlé, M.; Comar, A. Estimates of plant density of wheat crops at emergence from very low altitude UAV imagery. Remote Sens. Environ. 2017, 198, 105–114.
[3] Brook, A.; De Micco, V.; Battipaglia, G.; Erbaggio, A.; Ludeno, G.; Catapano, I.; Bonfante, A. A smart multiple spatial and temporal resolution system to support precision agriculture from satellite images: Proof of concept on Aglianico vineyard. Remote Sens. Environ. 2020, 240, 111679.
[4] Camino, C.; González-Dugo, V.; Hernández, P.; Sillero, J.C.; Zarco-Tejada, P.J. Improved nitrogen retrievals with airborne-derived fluorescence and plant traits quantified from VNIR-SWIR hyperspectral imagery in the context of precision agriculture. Int. J. Appl. Earth Obs. Geoinf. 2018, 70, 105–117
[5] Bian, J.; Zhang, Z.; Chen, J.; Chen, H.; Cui, C.; Li, X.; Chen, S.; Fu, Q. Simplified Evaluation of Cotton Water Stress Using High Resolution Unmanned Aerial Vehicle Thermal Imagery. Remote Sens. 2019, 11.
[6] Zhou, Z.; Majeed, Y.; Diverres Naranjo, G.; Gambacorta, E.M.T. Assessment for crop water stress with infrared thermal imagery in precision agriculture: A review and future prospects for deep learning applications. Comput. Electron. Agric. 2021, 182, 106019.
[7] 19. Mulla, D.J. Twenty five years of remote sensing in precision agriculture: Key advances and remaining knowledge gaps. Biosyst. Eng. 2013, 114, 358–371.
[8] Ben-Dor, E.; Chabrillat, S.; Demattê, J.A.M.; Taylor, G.R.; Hill, J.; Whiting, M.L.; Sommer, S. Using Imaging Spectroscopy to study soil properties. Remote Sens. Environ. 2009, 113, S38–S55.
[9] Clark, Roger N. Spectroscopy of rocks and minerals, and principles of spectroscopy. Manual of remote sensing 3. 1999, 3-58.
[10] Ricardo Aguilar, Que son las camaras hiperespectrales: mejorando el detalle con información que tu ojo no puede ver. Available online: https://www.xatakamovil.com/varios/que-camaras-hiperespectrales-mejorando-detalle-informacion-que-tu-ojo-no-puede-ver (accessed on 09 August 2022).
[11] Peñuelas, J.; Gamon, J.A.; Fredeen, A.L.; Merino, J.; Field, C.B. Reflectance indices associated with physiological changes in nitrogen- and water-limited sunflower leaves. Remote Sens. Environ. 1994, 48, 135–146
[12] Dzikiti, S.; Verreynne, J.S.; Stuckens, J.; Strever, A.; Verstraeten, W.W.; Swennen, R.; Coppin, P. Determining the water status of Satsuma mandarin trees [Citrus Unshiu Marcovitch] using spectral indices and by combining hyperspectral and physiological data. Agric. For. Meteorol. 2010, 150, 369–379.
[13] R.O. Green, et al. Imaging Spectroscopy and the Airbone Visible/Infrared Imagin Spectometer (AVIRIS). Remote Sensing of Environment, vol. 65, pp 227-248, 1998.
[14] Keshava, Nirmal, and John f. Mustard. Spectral unmixing. IEEE signal processing magazine 19.1 (2002): 44-57.
[15] Keshava, Nirmal. A survey of spectral unmixing algorithms. Lincoln Laboratory Journal 14, 1 (2003): 55-78.
[16] A. Plaza, C.-I. Chang, “Impact of Initialization on Design of Endmember Extraction Algorithms”, Geoscience and Remote Sensing, IEEE Transactions on, vol. 44, no. 11, pgs. 3397-3407, 2006.
[17] Chang, C.-I., “A fast iterative algorithm for implementation of pixel purity index”, Geoscience and Remote Sensing Letters, IEEE, vol. 3, no. 1, pags. 63-67, 2006.
[18] Winter, M. E., “N-FINDR: an algorithm for fast autonomous spectral end-member determination in hyperspectral data”, presented at the Imaging Spectrometry V, Denver, CO, USA, 1999, vol. 3753, pgs. 266-275.
[19] Rikola. 2015. Rikola Hyperspectral Imager—Quick start guide. Kaitoväylä, Finland: Rikola Ltd.
[20] Therien, C. Welcome to the PySptools Documentation. Available online: https://pysptools.sourceforge.io/ (accessed on 09 August 2022).
[21] Nathan Hagen y Michael W Kudenov. “Review of snaps-hot spectral imaging technologies”. Optical Engineering 52.9 (2013), 090901.