Bibliografía - TEISEL.Tecnologías para la investigación en segundas lenguas

Texto completo pdf icon

Este estudio aborda la cuestión de la transferencia de la investigación en la adquisición de segundas lenguas (SLA) a la instrucción de segundas lenguas y lenguas extranjeras (L2), más concretamente en el marco del Enseñanza de Lenguas Basada en Tareas (TBLT). El objetivo principal es mostrar cómo la herramienta web taskGen (https://taskgen.eu), cuyo primer uso es la creación de materiales didácticos, también funciona como medio para la transferencia y proporciona información valiosa sobre  prácticas de enseñanza, necesidades de los profesores, estrategias pedagógicas y diseño de tareas en L2.

En primer lugar, se presenta taskGen como una herramienta web que ayuda y forma a los profesores en el diseño de tareas L2 e integra recursos de procesamiento de lenguaje natural (NLP); a continuación, se muestra cómo la información cuantitativa obtenida a través del análisis de datos a partir del uso masivo de la herramienta se puede combinar con métodos cualitativos como entrevistas, observaciones, protocolos de opinión en vivo, cuestionarios, estudios de casos y transcripciones para generar investigación. La recopilación automática (cuantitativa) de datos recoge información de los contextos de enseñanza, los objetivos de las tareas, las estructuras del flujo de tareas, las opciones de atención en la forma, y el acceso a los archivos de ayuda. La información recopilada, además de retroalimentar la herramienta, contribuye a comprender las opciones y patrones en los diseños de los profesores, y a explorar la intersección entre la teoría SLA y TBLT, por un lado, y las prácticas de diseño de tareas, por otro. El análisis cualitativo que se lleva a cabo se orienta hacia las experiencias de los profesores durante el diseño de tareas. Finalmente, se presentan las líneas de investigación futuras que prevemos que se llevarán a cabo conforme crezca el uso de taskGen y se vayan implementando nuevas funcionalidades en la herramienta.

----------------------

The present study addresses the issue of the transfer from second language acquisition (SLA) research to second and foreign language (L2) instruction, particularly within the context of Task-Based Language Teaching (TBLT). The main goal of this article is to show how technology, particularly the web-based tool taskGen (https://taskgen.eu), which primarily serves to create teaching materials, also functions as a mediator for transfer and provides valuable information on teaching practices, teachers' needs, pedagogical strategies, and L2 task design. This article is organised as follows. Firstly, a web-based tool that assists and trains teachers in L2 task design is presented, along with the instantiation and integration of natural language processing (NLP) resources in the tool; later, we show how quantitative information obtained from the massive use of the tool through data analytics can be combined with qualitative methods such as interviews, observations,  think  aloud  protocols,  questionnaires,  case  studies,  and  transcripts  to  generate  research. Automatic (quantitative) data collection gathers information of the teaching contexts, task aims, task flow structures, focus on form options, and the access and  time  on  help files.  Not only does the  collected information feed back to the tool, but it also contributes to understanding teachers' design choices and patterns,  and  to  exploring  the  intersection  between  SLA  and  TBLT  theory  and  task  design  practises.      Qualitative analysis is being conducted and oriented toward teachers’ experiences during task design. Finally, we present the future lines of research that we anticipate will be carried out with the further use and development of taskGen.

Texto completo pdf icon

En este artículo se presenta el Corpus de ELE en Japón, CELEN (https://ske.li/qqr), una colección de textos escritos por hablantes de japonés (L1) con distintos grados de dominio del español como lengua extranjera, desde el nivel A1 hasta el nivel C2 del MCER. Los datos proceden de (1) universidades en Japón, donde el español se estudia como asignatura de lengua extranjera o como carrera, y (2) contextos de interacción real en Internet, como blogs electrónicos y foros. La versión 1.2, de abril de 2023, consta de 6.196 textos escritos por 1.035 aprendices, con un total de 658.467 palabras. En el apartado 1 se resume brevemente la situación del español en Japón y los corpus de aprendices existentes. En el apartado 2 se describen las características principales de CELEN, el proceso de recogida y anotación de los datos y la interfaz de consulta. En el apartado 3 se ilustra su uso con varios tipos de búsquedas (concordancias, colocaciones, listas de palabras y n-gramas), aplicadas a fenómenos lingüísticos relevantes en la docencia o la investigación en ELE: el uso de se, las preposiciones, la concordancia de género, el orden de palabras, las colocaciones verbales, la frecuencia léxica o las secuencias de categorías gramaticales más frecuentes. Se trata de un recurso abierto, que se actualiza periódicamente, y esperamos que otros profesores e investigadores puedan albergar sus textos en él para ofrecer a la comunidad científica una amplia muestra de aprendices japoneses de español. En la página web del proyecto (https://sites.google.com/view/celen) se puede consultar la guía de uso detallada y descargar íntegramente algunas partes del corpus bajo una licencia CC BY-NC 4.0.

Texto completo pdf icon

En este artículo se presenta el Corpus léxico del español de Colombia CorlexCo (https://clicc.caroycuervo.gov.co/corpus/CorlexCo) del Instituto Caro y Cuervo, herramienta que recopila combinaciones léxicas con criterio integral, es decir, las propias del país y también las compartidas con otros países hispanoamericanos y con el español general. No se limita a los colombianismos. Se trata de un macroproyecto iniciado en 2019 y desarrollado en fases anuales sucesivas. Por “combinaciones léxicas” nos referimos a todo tipo de unidades pluriverbales (compuestos, colocaciones, construcciones con verbo soporte, locuciones, paremias y fórmulas rutinarias). Los datos proceden de cinco fuentes de consulta: (1) diccionarios generales, escolares, dialectales, fraseológicos y combinatorios, (2) casi doscientos cincuenta repertorios léxicos del español de Colombia, (3) más de ciento cincuenta investigaciones académicas sobre el léxico de Colombia, (4) corpus lingüísticos y (5) el dominio http://www.google.com.co. Con respecto a la aplicación del CorlexCo, por una parte, puede usarse en planeación curricular, diseño de materiales didácticos y procesos de evaluación de español como lengua extranjera y segunda lengua (para indígenas y sordos); por otra, puede constituirse en obra de referencia de aprendientes, profesores, editores, traductores y, especialmente, de lingüistas que investiguen sobre el español LE y L2. En el apartado 1 se resume el estado actual de la lexicografía dialectal en Colombia. En el apartado 2 se describen las características principales del CorlexCo, la selección del tipo de unidades léxicas para cada fase anual, la selección de las entradas y la anotación, y se ilustra su uso con varios tipos de búsqueda. En el apartado 3 se muestra su aplicación a la investigación sobre español LE y L2. Este corpus es un recurso abierto que se actualiza periódicamente y que ofrece a la comunidad académica una descripción ampliada del léxico de Colombia.

Texto completo pdf icon

En este trabajo se analiza el uso de tres herramientas digitales para la codificación, el análisis y la explotación de un corpus oral de aprendices de L2. En primer lugar, se presenta la creación, codificación y actualización del corpus, que se compiló con el objetivo de analizar los errores cometidos en el plano oral por parte de un grupo compuesto por 51 informantes franceses, estudiantes de segundo año de Lenguas Extranjeras Aplicadas de la Universidad François Rabelais de Tours (Francia). Una vez conseguido el material auditivo, se procedió a la transcripción y anotación textual codificada, siguiendo la normativa que marca Text Encoding Initiative.

Esta investigación se valió de ciertas herramientas digitales, como XML Formatter (https://jsonformatter.org/xml-formatter), XML Validator (https://codebeautify.org/xmlvalidator), VS Studio (https://code.visualstudio.com/), Git (https://git-scm.com/), GitHub (https://github.com/), SpaCy (https://SpaCy.io/), CATMA (https://catma.de/) y Google Colaboratory (https://colab.google/), que contribuyeron al desarrollo del análisis y la explotación del corpus oral, sirviendo para la configuración y validación de la cabecera del corpus (XML Formatter - Validator), para el etiquetado del corpus (VS Studio), para el control y almacenaje de las versiones (Git-GitHub) y para la actualización del corpus (SpaCy permite nuevos análisis, Google Colaboratory es un instalador de software usado junto a SpaCy, y con CATMA se desarrolla el nuevo etiquetado).

Texto completo pdf icon

Este artículo muestra cómo se pueden examinar los datos compilados en los Corpus de Clases de L2 (CCL2). En concreto, se centra en cómo analizar, tanto manualmente como con la herramienta Sketch Engine (https://www.sketchengine.eu), la enseñanza de vocabulario en español a partir de este tipo de corpus. Para situar al lector, en la revisión de la literatura se presentan varios CCL1 y CCL2 disponibles a través de alguna interfaz específica o a través de Sketch Engine. Además, se describe cómo investigadores con distintos enfoques han utilizado los CCL2 y con qué propósitos. Asimismo, puesto que los ejemplos que se dan en el artículo se centran en investigaciones relacionadas con el léxico en la L2, se incluye una sección muy somera sobre esta cuestión. A continuación, al examinar las aplicaciones de Sketch Engine, se centra la atención en las funcionalidades Lista de palabras, Concordancia y Palabras clave. Para ejemplificar la utilidad de Sketch Engine combinado con los análisis de tipo manual, se describen tres CCL2 creados por la autora del artículo y se revisa la metodología de cuatro investigaciones sobre la enseñanza del vocabulario y de la morfología léxica en las que se usaron estos tres CCL2. Tras describir cómo se analizaron los datos en estos estudios, se proponen nuevas investigaciones posibles con Sketch Engine y se ofrecen algunas recomendaciones que pueden resultar útiles para quienes se adentren en el uso de esta herramienta aplicada al análisis de CCL2.

Texto completo pdf icon

Este artículo explora el potencial de JASP (Jeffreys's Amazing Statistics Program, https://jasp-stats.org/) como herramienta estadística robusta para avanzar en la investigación sobre la Adquisición de Segundas Lenguas (ASL), con un énfasis específico en su aplicación dentro del dominio de la escritura en L2. El dominio de la escritura en una segunda lengua es una habilidad compleja y polifacética, que exige una investigación empírica rigurosa para descubrir patrones y perspectivas matizados. JASP, conocido por su interfaz fácil de usar y sus avanzadas capacidades estadísticas, se perfila como un instrumento prometedor para los investigadores que buscan desentrañar los entresijos del desarrollo de la escritura en L2. El artículo comienza proporcionando una visión general de las características incorporadas en JASP y continúa discutiendo algunas de las investigaciones existentes en el campo de ASL que implementa JASP como una herramienta de análisis de datos. A continuación, se ofrece una descripción detallada del uso de JASP en dos trabajos de escritura de L2, en los que se discuten las decisiones de análisis de datos. Además, la discusión profundiza en las implicaciones prácticas de la utilización de JASP en la investigación de la escritura en L2, incluyendo su capacidad para acomodar muestras de pequeño tamaño, manejar interacciones complejas y facilitar análisis transparentes y reproducibles. El artículo concluye abogando por la adopción generalizada de JASP en la investigación de SLA, al tiempo que postula que su integración promete avanzar en nuestra comprensión de las complejidades del desarrollo de la escritura en L2 y contribuir al perfeccionamiento de los enfoques pedagógicos en la enseñanza de segundas lenguas.

------------------------------

This paper explores the potential of JASP (Jeffreys’s Amazing Statistics Program, https://jaspstats. org/) as a robust statistical tool in advancing Second Language Acquisition (SLA) research, with a specific emphasis on its application within the domain of L2 writing. Second language writing proficiency is a complex and multifaceted skill, demanding rigorous empirical investigation to uncover nuanced patterns and insights. JASP, known for its user-friendly interface and advanced statistical capabilities, emerges as a promising instrument for researchers seeking to unravel the intricacies of L2 writing development. The paper begins by providing an overview of the features embedded in JASP and continues to discuss some of the extant research within the field of SLA that implements JASP as a data analysis tool. Follows is a detailed description of the use of JASP in two L2 writing papers, in which the data analysis decisions are discussed. Furthermore, the discussion delves into the practical implications of utilizing JASP in L2 writing research, including its ability to accommodate small sample sizes, handle complex interactions, and facilitate transparent and reproducible analyses. The paper concludes by advocating for the widespread adoption of JASP in SLA research, positing that its integration holds the promise of advancing our understanding of the intricacies of L2 writing development and contributing to the refinement of pedagogical approaches in second language education.

Revistas