https://revistes.ub.edu/index.php/teisel/issue/feed TEISEL. Tecnologías para la investigación en segundas lenguas 2024-05-02T10:03:51+00:00 Mar Cruz Piñol revista.teisel@ub.edu Open Journal Systems <p><em><strong>TEISEL. Tecnologías para la investigación en segundas lenguas</strong> </em>tiene como objeto proporcionar a la comunidad científica un canal de reflexión sobre el lugar que ocupan las <strong><span style="text-decoration: underline;">tecnologías en la investigación</span> sobre la enseñanza/aprendizaje/adquisición/evaluación de segundas lenguas.</strong></p> https://revistes.ub.edu/index.php/teisel/article/view/42898 El corpus de aprendices japoneses CELEN y su aplicación a la docencia y la investigación en ELE 2023-10-16T07:50:21+00:00 Pilar Valverde valverde.mp@gmail.com <p>En este artículo se presenta el Corpus de ELE en Japón, CELEN (<a href="https://app.sketchengine.eu/#dashboard?corpname=preloaded%2Fcelen_japanese_learner_corpus_of_spanish">https://ske.li/qqr</a>), una colección de textos escritos por hablantes de japonés (L1) con distintos grados de dominio del español como lengua extranjera, desde el nivel A1 hasta el nivel C2 del MCER. Los datos proceden de (1) universidades en Japón, donde el español se estudia como asignatura de lengua extranjera o como carrera, y (2) contextos de interacción real en Internet, como blogs electrónicos y foros. La versión 1.2, de abril de 2023, consta de 6.196 textos escritos por 1.035 aprendices, con un total de 658.467 palabras. En el apartado 1 se resume brevemente la situación del español en Japón y los corpus de aprendices existentes. En el apartado 2 se describen las características principales de CELEN, el proceso de recogida y anotación de los datos y la interfaz de consulta. En el apartado 3 se ilustra su uso con varios tipos de búsquedas (concordancias, colocaciones, listas de palabras y n-gramas), aplicadas a fenómenos lingüísticos relevantes en la docencia o la investigación en ELE: el uso de <em>se</em>, las preposiciones, la concordancia de género, el orden de palabras, las colocaciones verbales, la frecuencia léxica o las secuencias de categorías gramaticales más frecuentes. Se trata de un recurso abierto, que se actualiza periódicamente, y esperamos que otros profesores e investigadores puedan albergar sus textos en él para ofrecer a la comunidad científica una amplia muestra de aprendices japoneses de español. En la página web del proyecto (<a href="https://sites.google.com/view/celen">https://sites.google.com/view/celen</a>) se puede consultar la guía de uso detallada y descargar íntegramente algunas partes del corpus bajo una licencia CC BY-NC 4.0.</p> 2023-10-26T00:00:00+00:00 Derechos de autor 2023 Pilar Valverde https://revistes.ub.edu/index.php/teisel/article/view/45855 Automatización del diseño de tareas: creando puentes entre la investigación en segundas lenguas y su instrucción 2024-03-11T08:26:17+00:00 Joan Castellví joan.castellvi@ub.edu Roger Gilabert Guerrero rogergilabert@ub.edu Elisabet Comelles Pujadas elicomelles@ub.edu <p><em>Este estudio aborda la cuestión de la transferencia de la investigación en la adquisición de segundas lenguas (SLA) a la instrucción de segundas lenguas y lenguas extranjeras (L2), más concretamente en el marco del Enseñanza de Lenguas Basada en Tareas (TBLT). El objetivo principal es mostrar cómo la herramienta web taskGen (</em><a href="https://taskgen.eu">https://taskgen.eu</a><em>), cuyo primer uso es la creación de materiales didácticos, también funciona como medio para la transferencia y proporciona información valiosa sobre prácticas de enseñanza, necesidades de los profesores, estrategias pedagógicas y diseño de tareas en L2. </em></p> <p><em>En primer lugar, se presenta taskGen como una herramienta web que ayuda y forma a los profesores en el diseño de tareas L2 e integra recursos de procesamiento de lenguaje natural (NLP); a continuación, se muestra cómo la información cuantitativa obtenida a través del análisis de datos a partir del uso masivo de la herramienta se puede combinar con métodos cualitativos como entrevistas, observaciones, protocolos de opinión en vivo, cuestionarios, estudios de casos y transcripciones para generar investigación. La recopilación automática (cuantitativa) de datos recoge información de los contextos de enseñanza, los objetivos de las tareas, las estructuras del flujo de tareas, las opciones de atención en la forma, y el acceso a los archivos de ayuda. La información recopilada, además de retroalimentar la herramienta, contribuye a comprender las opciones y patrones en los diseños de los profesores, y a explorar la intersección entre la teoría SLA y TBLT, por un lado, y las prácticas de diseño de tareas, por otro. El análisis cualitativo que se lleva a cabo se orienta hacia las experiencias de los profesores durante el diseño de tareas. Finalmente, se presentan las líneas de investigación futuras que prevemos que se llevarán a cabo conforme crezca el uso de taskGen y se vayan implementando nuevas funcionalidades en la herramienta </em></p> 2024-04-09T00:00:00+00:00 Derechos de autor 2024 Joan Castellví, Roger Gilabert Guerrero, Elisabet Comelles Pujadas https://revistes.ub.edu/index.php/teisel/article/view/46686 El Corpus léxico del español de Colombia CorlexCo y su aplicación a la investigación sobre el español LE y L2 2024-05-02T10:03:51+00:00 Gloria Viviana Nieto Martín viviana.nieto@caroycuervo.gov.co <p>En este artículo se presenta el Corpus léxico del español de Colombia <em>CorlexCo </em>(<a href="https://clicc.caroycuervo.gov.co/corpus/CorlexCo">https://clicc.caroycuervo.gov.co/corpus/CorlexCo</a>) del Instituto Caro y Cuervo, herramienta que recopila combinaciones léxicas con criterio integral, es decir, las propias del país y también las compartidas con otros países hispanoamericanos y con el español general. No se limita a los colombianismos. Se trata de un macroproyecto iniciado en 2019 y desarrollado en fases anuales sucesivas. Por “combinaciones léxicas” nos referimos a todo tipo de unidades pluriverbales (compuestos, colocaciones, construcciones con verbo soporte, locuciones, paremias y fórmulas rutinarias). Los datos proceden de cinco fuentes de consulta: (1) diccionarios generales, escolares, dialectales, fraseológicos y combinatorios, (2) casi doscientos cincuenta repertorios léxicos del español de Colombia, (3) más de ciento cincuenta investigaciones académicas sobre el léxico de Colombia, (4) corpus lingüísticos y (5) el dominio <a href="http://www.google.com.co">http://www.google.com.co</a>. Con respecto a la aplicación del <em>CorlexCo</em>, por una parte, puede usarse en planeación curricular, diseño de materiales didácticos y procesos de evaluación de español como lengua extranjera y segunda lengua (para indígenas y sordos); por otra, puede constituirse en obra de referencia de aprendientes, profesores, editores, traductores y, especialmente, de lingüistas que investiguen sobre el español LE y L2. En el apartado 1 se resume el estado actual de la lexicografía dialectal en Colombia. En el apartado 2 se describen las características principales del <em>CorlexCo</em>, la selección del tipo de unidades léxicas para cada fase anual, la selección de las entradas y la anotación, y se ilustra su uso con varios tipos de búsqueda. En el apartado 3 se muestra su aplicación a la investigación sobre español LE y L2. Este corpus es un recurso abierto que se actualiza periódicamente y que ofrece a la comunidad académica una descripción ampliada del léxico de Colombia.</p> 2024-06-03T00:00:00+00:00 Derechos de autor 2024 Gloria Viviana Nieto Martín https://revistes.ub.edu/index.php/teisel/article/view/44785 Reseña de Marsden, Emma; Alferink, Inge; Andringa, Sible; Bolibaugh, Cylcia; Collins, Laura; Jackson, Carrie; Kasprowicz, Rowena; O'Reilly, David; Plonsky, Luke (desde 2018). Open Accessible Summaries in Language Studies (OASIS) [Base de datos en línea] https://www.oasis-database.org 2023-11-15T03:14:42+00:00 Constanza Cerda constanza.cerda@pucv.cl 2024-01-16T00:00:00+00:00 Derechos de autor 2024 Constanza Cerda https://revistes.ub.edu/index.php/teisel/article/view/46552 Reseña de Manchón, Rosa M.; Roca de Larios, Julio (Eds.) (2023). Research Methods in the Study of L2 Writing Processes. John Benjamins Publishing Company 2024-04-16T08:41:28+00:00 Aymé Pino Rodriguez ayme.pino@su.se 2024-05-18T00:00:00+00:00 Derechos de autor 2024 Aymé Pino Rodriguez https://revistes.ub.edu/index.php/teisel/article/view/45189 Perspectivas del uso de JASP como herramienta de análisis de datos en la investigación de L2 2024-02-02T14:38:38+00:00 Sophie McBride sophie.mcbride@um.es Aitor Garcés-Manzanera Aitor.garces@pdi.atlanticomedio.es <div> <p class="TEISEL-resumen2"><em>Este artículo explora el potencial de JASP (Jeffreys's Amazing Statistics Program, <a href="https://jasp-stats.org/">https://jasp-stats.org/</a>) como herramienta estadística robusta para avanzar en la investigación sobre la Adquisición de Segundas Lenguas (ASL), con un énfasis específico en su aplicación dentro del dominio de la escritura en L2. El dominio de la escritura en una segunda lengua es una habilidad compleja y polifacética, que exige una investigación empírica rigurosa para descubrir patrones y perspectivas matizados. JASP, conocido por su interfaz fácil de usar y sus avanzadas capacidades estadísticas, se perfila como un instrumento prometedor para los investigadores que buscan desentrañar los entresijos del desarrollo de la escritura en L2. El artículo comienza proporcionando una visión general de las características incorporadas en JASP y continúa discutiendo algunas de las investigaciones existentes en el campo de ASL que implementa JASP como una herramienta de análisis de datos. A continuación, se ofrece una descripción detallada del uso de JASP en dos trabajos de escritura de L2, en los que se discuten las decisiones de análisis de datos. Además, la discusión profundiza en las implicaciones prácticas de la utilización de JASP en la investigación de la escritura en L2, incluyendo su capacidad para acomodar muestras de pequeño tamaño, manejar interacciones complejas y facilitar análisis transparentes y reproducibles. El artículo concluye abogando por la adopción generalizada de JASP en la investigación de SLA, al tiempo que postula que su integración promete avanzar en nuestra comprensión de las complejidades del desarrollo de la escritura en L2 y contribuir al perfeccionamiento de los enfoques pedagógicos en la enseñanza de segundas lenguas.</em></p> </div> 2024-02-06T00:00:00+00:00 Derechos de autor 2024 Sophie McBride, Aitor Garcés-Manzanera https://revistes.ub.edu/index.php/teisel/article/view/43669 Investigar a partir de corpus de clases de español L2 con Sketch Engine y de manera manual: ejemplos de estudios sobre el léxico 2024-01-30T06:48:53+00:00 Nausica Marcos Miguel nausica.marcosmiguel@ugent.be <p>Este artículo muestra cómo se pueden examinar los datos compilados en los Corpus de Clases de L2 (CCL2). En concreto, se centra en cómo analizar, tanto manualmente como con la herramienta <em>Sketch Engine </em>(<a href="https://www.sketchengine.eu">https://www.sketchengine.eu</a>), la enseñanza de vocabulario en español a partir de este tipo de corpus. Para situar al lector, en la revisión de la literatura se presentan varios CCL1 y CCL2 disponibles a través de alguna interfaz específica o a través de <em>Sketch Engine</em>. Además, se describe cómo investigadores con distintos enfoques han utilizado los CCL2 y con qué propósitos. Asimismo, puesto que los ejemplos que se dan en el artículo se centran en investigaciones relacionadas con el léxico en la L2, se incluye una sección muy somera sobre esta cuestión. A continuación, al examinar las aplicaciones de <em>Sketch Engine</em>, se centra la atención en las funcionalidades <em>Lista de palabras</em>, <em>Concordancia</em> y <em>Palabras clave</em>. Para ejemplificar la utilidad de <em>Sketch Engine</em> combinado con los análisis de tipo manual, se describen tres CCL2 creados por la autora del artículo y se revisa la metodología de cuatro investigaciones sobre la enseñanza del vocabulario y de la morfología léxica en las que se usaron estos tres CCL2. Tras describir cómo se analizaron los datos en estos estudios, se proponen nuevas investigaciones posibles con <em>Sketch Engine</em> y se ofrecen algunas recomendaciones que pueden resultar útiles para quienes se adentren en el uso de esta herramienta aplicada al análisis de CCL2.</p> 2024-02-27T00:00:00+00:00 Derechos de autor 2024 Nausica Marcos Miguel https://revistes.ub.edu/index.php/teisel/article/view/44741 Herramientas para la codificación, el análisis y la explotación de un corpus oral de aprendices francófonos de español 2024-01-24T08:02:52+00:00 Cristina Muñoz 8422munoz@gmail.com <p>En este trabajo se analiza el uso de tres herramientas digitales para la codificación, el análisis y la explotación de un corpus oral de aprendices de L2. En primer lugar, se presenta la creación, codificación y actualización del corpus, que se compiló con el objetivo de analizar los errores cometidos en el plano oral por parte de un grupo compuesto por 51 informantes franceses, estudiantes de segundo año de Lenguas Extranjeras Aplicadas de la Universidad François Rabelais de Tours (Francia). Una vez conseguido el material auditivo, se procedió a la transcripción y anotación textual codificada, siguiendo la normativa que marca <em>Text Encoding Initiative</em>.</p> <p>Esta investigación se valió de ciertas herramientas digitales, como <em>XML Formatter</em> (<a href="https://jsonformatter.org/xml-formatter">https://jsonformatter.org/xml-formatter</a>)<em>, </em><em>XML Validator</em> (<a href="https://codebeautify.org/xmlvalidator">https://codebeautify.org/xmlvalidator</a>), <em>VS Studio</em> (<a href="https://code.visualstudio.com/">https://code.visualstudio.com/</a>), <em>Git</em> (<a href="https://git-scm.com/">https://git-scm.com/</a>), <em>GitHub</em> (<a href="https://github.com/">https://github.com/</a>), <em>SpaCy</em> (<a href="https://spacy.io/">https://SpaCy.io/</a>), <em>CATMA</em> (<a href="https://catma.de/">https://catma.de/</a>) y <em>Google Colaboratory</em> (<a href="https://colab.google/">https://colab.google/</a>), que contribuyeron al desarrollo del análisis y la explotación del corpus oral, sirviendo para la configuración y validación de la cabecera del corpus (<em>XML Formatter - Validator</em>), para el etiquetado del corpus (<em>VS Studio</em>), para el control y almacenaje de las versiones (<em>Git-GitHub</em>) y para la actualización del corpus (<em>SpaCy</em> permite nuevos análisis, <em>Google Colaboratory</em> es un instalador de software usado junto a <em>SpaCy</em>, y con <em>CATMA</em> se desarrolla el nuevo etiquetado).</p> 2024-03-11T00:00:00+00:00 Derechos de autor 2024 Cristina Muñoz