COMPUTADORAS Y ESTUDIOS BÍBLICOS. Para lograr un nivel de detalle útil…
COMPUTADORAS Y ESTUDIOS BÍBLICOS. Para lograr un nivel de detalle útil con un alcance razonable, este artículo se centra en dos formas. Primero, se trata de "estudios bíblicos" en el sentido estricto del estudio del texto, excluyendo ANE.historia, arqueología y geografía. La informática tiene mucho que ofrecer a estas disciplinas auxiliares, y se han desarrollado algunas aplicaciones impresionantes, pero el foco de atención común de todos los eruditos bíblicos es el texto, y es allí donde dirigimos nuestra atención. En segundo lugar, este artículo es metodológico, no histórico. Una historia de la aplicación de las computadoras a la Biblia beneficiaría a quienes estudian estudios bíblicos (en contraste con la Biblia misma), pero el campo está progresando tan rápidamente que tal historia quedaría inmediatamente desactualizada. Además, debido a los avances en las ciencias de la computación, algunos de los proyectos más importantes históricamente ofrecen poca orientación práctica a quienes planean nuevos esfuerzos de investigación en la actualidad. En lugar de,
—
A. Introducción
B. Formular hipótesis
1. Gramática de casos
2. Redes semánticas
3. Análisis del discurso
4. Estructura modular
5. Gramática transformacional
C. Recopilar datos
1. Base de texto
2. Programa de búsqueda
D. Analizar datos
1. Análisis cualitativo
2. Análisis cuantitativo
E. Presentar resultados
1. Medios impresos
2. La computadora como medio
—
A. Introducción
Como cualquier otra ciencia, la exégesis implica formular hipótesis, recopilar datos, analizar estos datos a la luz de las hipótesis y presentar resultados. Este orden de los eventos es solo sugerente, ya que las etapas posteriores con frecuencia requieren la repetición de las anteriores. Por lo tanto, a medida que se recopilan datos, a menudo se lleva a cabo un análisis informal al mismo tiempo, lo que lleva a una reformulación de las hipótesis subyacentes y una revisión del plan de recopilación de datos. Aún así, la división es útil para nuestros propósitos. La recopilación de datos siempre presupone alguna hipótesis sobre lo que es interesante o útil de observar y lo que no; el análisis requiere datos sobre los que operar; y la difusión eficaz de los resultados requiere un paso adicional una vez finalizado el análisis.
Al considerar cada uno de estos pasos, veremos tanto lo que se ha hecho como lo que se puede hacer. No hay espacio para describir cada uno de los cientos de proyectos pasados y presentes, y la mención de uno u omisión de otro no constituye una recomendación o crítica. Las encuestas de proyectos particulares en estudios bíblicos asistidos por computadora (Parunak 1989b; Hughes 1987) y otros estudios literarios (Patton y Holoien 1981), y la discusión de temas técnicos en el diseño de investigación por computadora para las humanidades en general (Hockey 1980), están disponibles en otros lugares. Estas referencias deben consultarse para obtener información detallada sobre los proyectos y académicos nombrados pero no documentados de otra manera en este artículo.
B. Formular hipótesis
La ciencia nunca procede de una tabula rasa. El erudito siempre trae al texto algún conjunto de ideas para ser reivindicadas o refutadas. Cuanto mejor articuladas estén estas hipótesis, más eficaz será el proceso de investigación y menor será el peligro de que las hipótesis implícitas perjudiquen los resultados.
La informática, y en particular las especialidades de las ciencias cognitivas y la inteligencia artificial, han desarrollado valiosos marcos teóricos para describir el lenguaje y el pensamiento. Basándonos en estos modelos, podemos formular hipótesis sobre el texto bíblico con mayor precisión de lo que era posible anteriormente. En cada ejemplo de la siguiente lista (no exhaustiva), analizamos cómo se ha aplicado o se puede aplicar una idea de la informática a los estudios bíblicos.
1. Gramática de casos. La gramática de casos (Fillmore 1968; Cook 1979) es un modelo lingüístico que surgió de los primeros trabajos de traducción automática de las décadas de 1950 y 1960. La gramática de casos centra la atención en la relación entre verbos y sustantivos en oraciones. Cada verbo tiene asociado un marco de caso, que es un conjunto de espacios de caso. Estos espacios de caso, aunque sugeridos por los casos clásicos marcados en la estructura superficial de idiomas como el alemán o el griego clásico y el latín, difieren de manera importante de los casos clásicos. La diferencia central entre los casos en la gramática de casos y los casos clásicos es la que existe entre la estructura superficial de un texto y la estructura profunda de significado que representa. El nivel superficial del lenguaje contiene elementos como verbos, sustantivos y casos (clásicos). El mundo del significado se ocupa de acciones, entidades y casos (gramática de casos). La relación entre estas capas está sesgada, de modo que, por ejemplo, un sustantivo en el nivel de la superficie (como "muerte") en realidad representa una acción en el nivel profundo. Los casos de gramática de casos describen los roles que cumplen las entidades con respecto a las acciones en el nivel profundo. Por ejemplo, los espacios de casos comúnmente utilizados incluyen agente (el que realiza la acción), experimentador (el que se somete a la acción) y beneficiario (el que se beneficia de la acción). Los espacios de caso se caracterizan por tanto semánticamente, en contraste con los casos de nivel superficial (clásicos) (como nominativo, dativo, genitivo, acusativo, vocativo), que son sintácticos. Los casos de gramática de casos describen los roles que cumplen las entidades con respecto a las acciones en el nivel profundo. Por ejemplo, los espacios de casos comúnmente utilizados incluyen agente (el que realiza la acción), experimentador (el que se somete a la acción) y beneficiario (el que se beneficia de la acción). Por tanto, los espacios de caso se caracterizan semánticamente, en contraste con los casos de nivel superficial (clásicos) (como nominativo, dativo, genitivo, acusativo, vocativo), que son sintácticos. Los casos de gramática de casos describen los roles que cumplen las entidades con respecto a las acciones en el nivel profundo. Por ejemplo, los espacios de casos comúnmente utilizados incluyen agente (el que realiza la acción), experimentador (el que se somete a la acción) y beneficiario (el que se beneficia de la acción). Los espacios de caso se caracterizan por tanto semánticamente, en contraste con los casos de nivel superficial (clásicos) (como nominativo, dativo, genitivo, acusativo, vocativo), que son sintácticos.
Debido a que los verbos de nivel superficial corresponden aproximadamente a acciones de estructura profunda, se pueden asociar espacios de casos de estructura profunda con los verbos correspondientes a las acciones asociadas. Los verbos difieren en las casillas que tienen. Por ejemplo, "doler" tiene un experimentador pero no un agente; "Golpear" tiene ambos. A nivel de superficie, un solo caso clásico puede corresponder en diferentes ocasiones a diferentes casos de estructura profunda. Así, el experimentador de "doler" y el agente de "golpear" están ambos representados por una estructura superficial nominativa, mientras que el experimentador de "golpear" toma una estructura superficial acusativa.
A diferencia de los casos de estructura de superficie, los espacios de caja son invariables bajo cambios de voz o cambios como los generados por inflexión. Por ejemplo, tanto en la oración activa "El niño golpeó la pelota" como en la pasiva "La pelota fue golpeada por el niño", "niño" es agente y "pelota" es experimentador.
La gramática de casos ofrece a los estudios bíblicos un marco teórico riguroso para la lexicografía. Una vez que reconocemos que los marcos de casos no varían con la inflexión verbal, pero sí varían con la semántica del verbo, podemos usarlos para clasificar el vocabulario de un idioma. Resulta tanto natural como provocativo clasificar los verbos sobre la base de los marcos de los casos y las clases semánticas de palabras que pueden llenarlos, o clasificar los sustantivos sobre la base de los espacios entre mayúsculas y minúsculas que pueden llenar. Dado que los espacios entre mayúsculas y minúsculas son un fenómeno de estructura profunda, ofrecen una base teórica para combinar la evidencia semántica proporcionada por los verbos con la de los sustantivos verbales asociados, donde los espacios entre mayúsculas y minúsculas suelen aparecer como genitivos superficiales.
2. Redes semánticas. El término redes semánticas (Brachman y Levesque 1985) se refiere a una variedad de modelos de significado, todos caracterizados por una colección de nodos (que representan conceptos) y relaciones entre ellos. La investigación en inteligencia artificial (IA) ha demostrado que las computadoras deben poder modelar grandes fragmentos de conocimiento sobre el mundo para funcionar de manera inteligente. Una forma eficaz de almacenar este conocimiento es como una red de conceptos conectados por relaciones. Dos tipos de conceptos ( clase e instancia ) y dos tipos de relaciones ( AKO e ISA ) son comunes a los muchos esquemas individuales que se han propuesto.
Un concepto de instancia corresponde a una sola entidad en algún mundo, real o imaginario, mientras que una claseconcepto es una prueba que se puede aplicar a cualquier entidad y dirá "sí" si la entidad es miembro del concepto, o "no" en caso contrario. Desde otra perspectiva, uno nombra instancias pero describe clases. Por ejemplo, David, Saúl y Salomón serían instancias en una red semántica que representa el mundo conceptual de la Biblia hebrea, mientras que -rey de Israel- sería una clase. Una clase puede tener solo un miembro y seguir siendo una clase en lugar de una instancia si su función es describir en lugar de nombrar. Así, "creador" es una clase cuyo único miembro en el pensamiento bíblico ortodoxo es la instancia YHWH. Uno puede incluso tener una clase sin miembros (por ejemplo, nuevamente en el pensamiento bíblico ortodoxo, la clase "dioses distintos de YHWH").
Las relaciones AKO ("una especie de") se unen a clases relacionadas, mientras que las relaciones ISA ("es un") asignan instancias a las clases. Por ejemplo, el concepto "Profeta" se une al concepto "Persona" con una cadena de enlaces AKO, ya que "Profeta" es una subclase de "Persona". (Es decir, cualquier cosa que uno pueda describir como "Profeta" también puede describirse como "Persona"). "Persona" a su vez es AKO "ser viviente". Para identificar a un individuo específico (como Isaías o Jeremías) como profeta, un enlace ISA conecta la instancia correspondiente a esa persona con la clase "Profeta".
Las redes semánticas tienden a consistir en redes de clases que muestran las relaciones entre conceptos con una franja de instancias que cuelgan del fondo. Por ejemplo, el Anexo 1 ( Fig.COM.01) muestra un fragmento de una red semántica enraizada en el concepto "Ser vivo". Los nodos impresos en letra clara son todas clases, relacionadas entre sí mediante enlaces AKO (indicados por flechas en negrita). En la parte inferior, en negrita, hay instancias específicas, vinculadas a sus clases más específicas por enlaces ISA (flechas discontinuas). Además de los enlaces que realmente se muestran en el diagrama, la lógica de las redes semánticas nos permite deducir que "Persona justa" es AKO "Persona" (ya que cualquier cadena de enlaces AKO es equivalente a un solo enlace AKO) y "David" ISA -Ser vivo- (dado que una instancia de una clase es también una instancia de cualquier otra clase de la cual la primera es una subclase).
Las relaciones AKO e ISA son las más comunes, pero no son suficientes para un modelado semántico completo. Las relaciones adicionales entre clases (como parte de y color de ) a menudo se inventan ad hoc para satisfacer una necesidad particular, pero pueden derivarse de una manera teóricamente más satisfactoria a partir de los marcos de casos de la gramática de casos.
Las redes semánticas ofrecen una metodología y un marco para describir un espacio semántico y estudiar el lugar de varios conceptos dentro de él. Junto con la gramática de casos, son una herramienta importante para formalizar la lexicografía. También ofrecen un modelo poderoso para estudiar fenómenos como el paralelismo semántico en la poesía bíblica.
Una teoría popular del paralelismo atribuye el emparejamiento repetido de ciertos elementos léxicos a la existencia de una tradición convencional de pares de los que los poetas extrajeron coincidencias aceptables. Si recopilamos los pares emparejados de la poesía ugarítica o del libro de Proverbios y ordenamos las palabras en una hoja de papel de tal manera que la distancia entre dos palabras sea proporcional a la frecuencia con la que esas palabras aparecen en paralelo, el patrón general cae en regiones claramente delineadas, cada una con su propia integridad semántica, y la asociación de pares individuales se ve como solo un detalle de la imagen más amplia de regiones de términos asociados. Tal patrón se explica fácilmente con la hipótesis de que los humanos almacenan su inventario de conceptos como una red y tienden a asociar términos (ya sea como paralelos poéticos o de otras formas) en función de su proximidad en la red general. Esta red general es el contexto más amplio dentro del cual deben discutirse las teorías sobre los pares tradicionales.
Por ejemplo, el Anexo 2 ( Fig.COM.02) distribuye 66 sustantivos en dos dimensiones de tal manera que cuanto más cerca están dos palabras en la página, más frecuentemente aparecen como paralelos poéticos entre sí en Proverbios. Varias regiones semánticas claras son visibles. El cuadrante superior izquierdo, que se extiende hacia el inferior izquierdo, está dominado por los nombres de las partes del cuerpo. Los que están a la derecha del grupo son los órganos de la sabiduría y la moralidad, como "alma", "corazón" y "espíritu", mientras que los de la izquierda son puramente físicos, como "pie", "ojo" y " mano." En la parte superior, palabras como "Sheol", "muerte", "duración", "día", "riquezas" y "honor" reflejan las consecuencias de varios estilos de vida. Una región vertical cerca del centro contiene sustantivos que describen seres racionales (incluido "Señor", dos palabras para "hombre", "hijo", "pecador" y "escarnecedor"). También contiene adjetivos que se usan comúnmente como sustantivos que identifican a las personas, como "sabio" y "justo". Los términos en la parte inferior de la columna describen a las personas con respecto a su condición moral, mientras que los de la parte superior reflejan sabiduría e insensatez. Esta columna une otros dos grupos, uno de términos de sabiduría y el otro de términos de moralidad. El resto de las palabras en el cuadrante superior derecho son los nombres de sabiduría y entendimiento, así como su opuesto, "locura". -Miedo- está aquí debido a su frecuente aparición en la frase, -temor de Jehová-, que es (como Proverbios nos recuerda a menudo) el comienzo de la sabiduría. Los términos hacia el extremo inferior derecho de este grupo, como "consejo", "disciplina" y "reprensión", se refieren a la comunicación de la sabiduría. Al otro lado del fondo, fusionándose con las palabras morales para seres racionales, son descripciones de la moralidad y sus manifestaciones, incluyendo "orgullo", "perversidad", "rectitud" y varias metáforas ("camino", "camino" y "camino") que describen el curso de la vida de una persona. La existencia de tales regiones es una prueba convincente de que los pares paralelos no son un fin estilístico en sí mismos, sino el borde de todo un tejido de interrelaciones semánticas, como sugiere un modelo de red semántica.
La observación de que el segundo miembro de una pareja poética a menudo intensifica, fortalece o hace más específica la idea del primer miembro (Alter 1985) refleja la importancia en general de las relaciones AKO en la estructura de los espacios conceptuales.
3. Análisis del discurso. Cada exégeta ha diagramado oraciones para analizar las relaciones entre palabras dentro de cláusulas. Recientemente, ha aumentado el interés por el análisis del discurso, que estudia las relaciones entre cláusulas y unidades lingüísticas más amplias. Gran parte del ímpetu de este estudio ha surgido de los trabajadores de la inteligencia artificial, que buscan construir modelos formales para los procesos computacionales subyacentes al lenguaje humano. Una metodología particularmente útil, llamada "teoría de la estructura retórica", se desarrolló específicamente para permitir que las computadoras produzcan texto que suene natural para los humanos (Mann y Thompson 1987). La comunidad de traducción de la Biblia también ha hecho contribuciones importantes (Beekman y Callow 1974; Longacre 1976; Grimes 1975), pero la motivación subyacente para este trabajo, como para tanta investigación en la teoría lingüística moderna, es el movimiento hacia modelos formales de comportamiento inspirado en la informática.
La contribución del análisis del discurso que se destaca aquí es la definición formal de un conjunto de relaciones que las cláusulas tienen entre sí. De manera informal, algunas de estas relaciones (como la razón o los medios) son categorías exegéticas familiares. Las contribuciones más recientes ofrecen conjuntos de estas relaciones mucho más completos que los que los exegetas están acostumbrados a utilizar (más de cincuenta en algunos sistemas). Proporcionan una teoría subyacente para estas relaciones (en un caso, basándose en el cálculo proposicional para definirlas con precisión). También muestran cómo estas relaciones entre cláusulas pueden extenderse a relaciones entre unidades textuales aún más grandes, proporcionando así una teoría coherente de la estructura del discurso en todos los niveles, desde la cláusula hasta el texto completo.
4. Estructura modular. El estudio de la arquitectura literaria, rastreando patrones de repetición dentro de los textos y estudiando fenómenos como el quiasmo, la alternancia y las transiciones formales (Parunak 1979, 1981b, 1983), se remonta mucho antes de la computadora, y se originó en los estudios de Lowth sobre el paralelismo del verso hebreo. La informática ofrece conocimientos que pueden fortalecer y aclarar los análisis arquitectónicos de los textos.
A medida que los programas de computadora se han vuelto más largos y complejos, los nuevos lenguajes de computadora han proporcionado ayudas de estructuración sofisticadas para permitir que el programa se construya como una serie de segmentos, cada uno con su propia identidad y función. Sin esta modularización, la gente no puede entender los programas largos y los errores se vuelven difíciles de encontrar y corregir. Las estructuras del programa son una adaptación a las limitaciones cognitivas humanas. Tanto un programa estructurado como uno no estructurado pueden producir el mismo resultado, pero el estructurado es más fácil de entender y manipular para las personas. El desarrollo de la estructura en los lenguajes informáticos es, por tanto, una ventana a la estructura cognitiva humana en general y proporciona un modelo para analizar otros productos de la cognición humana, como los textos literarios extendidos.
Por ejemplo, una regla básica en la programación estructurada es el principio de localidad de acceso. Las variables utilizadas dentro de un módulo de un programa no deben ser susceptibles de ser cambiadas por otro módulo a menos que el módulo que las posee las haga disponibles explícitamente. Esta regla refleja la necesidad de la mente de empaquetar el pensamiento en unidades relativamente independientes y de controlar las interacciones entre estas unidades para reducir la complejidad. Los estudios de arquitectura literaria han identificado una serie de técnicas para definir unidades textuales, pero los análisis resultantes a menudo son criticados por observaciones de que una característica (como un elemento de vocabulario o una forma gramatical) aparece en varias unidades, fuera del patrón general de repetición. . El principio de localidad sugiere que tal repetición no tiene por qué invalidar la estructura modular general, ya que las características que son locales para módulos individuales no interactúan entre sí. Claramente, este enfoque requiere refinamiento para indicar bajo qué condiciones una característica puede considerarse local y qué técnicas utiliza un módulo para hacer una característica disponible públicamente para establecer relaciones con otros módulos. Con la misma claridad, todo el marco dentro del cual se plantea la hipótesis, y las direcciones a lo largo de las cuales puede ser probada y refinada, son el resultado de tendencias cognitivas que han quedado claras en nuestros intentos de programar computadoras.
5. Gramática transformacional. Ya hemos señalado la contribución indirecta de los primeros esfuerzos de traducción automática a la teoría lingüística en forma de gramática de casos. Otra contribución importante de estos esfuerzos es la gramática transformacional, desarrollada por Noam Chomsky como resultado de los estudios de las estructuras formales de los lenguajes matemáticos. La gramática transformacional modela cómo una única representación semántica de una idea dentro de la mente puede emerger como diferentes corrientes de texto. Por ejemplo, explica cómo las formas pasiva y activa de una oración se relacionan con un único significado subyacente.
Esta teoría gramatical en particular ha sido útil en varios estudios recientes sobre el paralelismo poético hebreo (Collins 1978; O’Connor 1980; Geller 1979), donde ha proporcionado un marco para clasificar y analizar estructuras poéticas paralelas con mucha más discriminación de la que había estado disponible previamente. . Permite al analista identificar el paralelismo no solo entre palabras en la forma superficial del texto, sino también entre elementos en la estructura subyacente o profunda, y por lo tanto proporciona una base teórica para extender la aplicación del paralelismo a muchas líneas poéticas que en el nivel superficial no exhiben paralelismo formal.
C. Recopilar datos
Con una hipótesis en la mano, queremos recopilar datos del texto para probarlo. En los días anteriores a las computadoras, los eruditos bíblicos recopilaban sus datos manteniendo notas ad hoc sobre varios temas encontrados durante la lectura general del texto; leyendo el texto mientras busca un fenómeno específico; o mediante concordancias. La computadora fue reconocida desde el principio como una forma de acelerar este proceso. Hay docenas de programas disponibles para apoyar la fase de recopilación de datos de la exégesis, demasiados para que intentemos revisarlos en detalle aquí. Hughes (1987) ofrece un buen estudio. Mencionaremos algunos que ilustran algunas de las capacidades que describimos.
Los dos componentes básicos de cualquier sistema informático para recopilar datos del texto bíblico son la base de texto en sí y un programa de búsqueda que manipula esta base de texto. (Estos corresponden respectivamente a la Biblia y al erudito en el escenario anterior a la computadora). La base de texto contiene al menos el texto a estudiar, que puede estar en los idiomas originales, traducciones o ambos. (Algunos programas, como el programa Bible Word de Akiyama, permiten a los usuarios consultar varias versiones del mismo texto simultáneamente). A menudo incluye anotaciones en el texto y, a veces, proporciona índices que aceleran el proceso de búsqueda. El programa de búsqueda es responsable de recopilar las especificaciones del usuario para una búsqueda, aplicarlas a la base de texto y devolver los resultados al usuario en una forma útil.
Los sistemas de recopilación de datos difieren ampliamente en lo que se incluye en la base de texto, cómo se almacena y cómo el programa de búsqueda lo manipula. Algunos objetivos se pueden lograr en la base de texto o en el programa de búsqueda. Por ejemplo, si uno necesita recuperar verbos de acuerdo con su análisis, se puede codificar cada verbo en la base de texto con su análisis o, alternativamente, proporcionar al programa de búsqueda la capacidad de analizar los verbos a medida que los adquiere. En general (pero con muchas excepciones específicas), es más rápido almacenar un análisis lingüístico en la base de texto que calcularlo durante la búsqueda, pero una estrategia de análisis almacenada requiere más espacio para la base de texto (por ejemplo, una unidad de disco duro más grande). ) que uno que analiza sobre la marcha. A medida que las computadoras se vuelven más rápidas y las tecnologías de almacenamiento de alta densidad (como CD-ROM) se vuelven menos costosas,
1. Base de texto. Las bases de texto se diferencian entre sí por el detalle con el que representan el texto básico, la representación de las anotaciones y la estrategia de almacenamiento.
un. Detalle de Representación. El grado de detalle que debe representarse en un texto codificado varía según el propósito al que se destina el texto. En muchos proyectos iniciales, los textos se codificaron con un propósito específico en mente. Por ejemplo, los académicos interesados en estudios léxicos y sintácticos del Antiguo Testamento con frecuencia ignoran la cantilación del texto y, a menudo, no lo codifican en su base de texto. Algunas bases de texto hebreo incluso excluyen la vocalización. El lenguaje de búsqueda GRAMCORD (Miller 1984) no se basa en la acentuación del texto griego, por lo que la base del texto no registra esta acentuación. Algunas ediciones informáticas populares de la KJV no distinga las palabras en cursiva (las insertadas por los traductores para suavizar la sintaxis en inglés) del resto del texto.
Dentro del contexto de un proyecto de investigación individual con objetivos restringidos, los textos parciales pueden reducir el costo de registrar los datos y controlar los requisitos de almacenamiento. Además, a menudo es más fácil diseñar programas de búsqueda si la base de texto no está abarrotada de información (como cantilación o acentuación) que el programa de búsqueda no utiliza. Sin embargo, con demasiada frecuencia, un investigador que ha codificado solo algunas características de un texto encuentra nuevas preguntas que surgen en el curso de la investigación que requieren acceso a las características omitidas. A medida que aumenta la capacidad de almacenamiento y las computadoras crecen más rápido, y a medida que los textos se ensamblan para uso general en repositorios como el Centro de Análisis Computacional de Textos de la Universidad de Pensilvania y el Servicio de Computación de la Universidad de Oxford (por nombrar solo dos) en lugar de ser codificado a medida para proyectos específicos,
B. Anotaciones. Muchas preguntas exegéticas involucran la forma analizada de las palabras, más que la forma en que aparecen en un texto. Por ejemplo, si uno está buscando "mouse" en un texto, a menudo se desea recuperar al mismo tiempo las apariciones de la forma plural "mouse". Aunque el texto contiene la cadena de caracteres "mouse", el analista puede querer manipularlo como si tuviera la notación "mouse + plural". Este análisis registra la -forma de diccionario- de la palabra (la entrada en un diccionario que se consultaría para encontrar información sobre la palabra) y su código gramatical o de análisis sintáctico. La forma del diccionario también se denomina a veces "lema" (plural "lemata") y un texto que indica explícitamente la forma del diccionario de cada palabra se denomina "texto lematizado".
Hay menos necesidad de lematización en inglés que en griego y hebreo. Las palabras en inglés cambian comparativamente poco en diferentes contextos. Los plurales internos (como "ratones") son mucho más raros que los que se forman agregando un sufijo simple ("casas"), y los sustantivos no tienen formas diferentes en la posición de sujeto, objeto y objeto indirecto. Los verbos generalmente conservan su forma básica, con tiempo, persona y aspecto marcados a través de terminaciones simples y verbos auxiliares. Por lo tanto, un programa de búsqueda de inglés puede recuperar varias inflexiones de una palabra deseada simplemente especificando la parte inicial que es común a las diversas formas de la palabra.
Esta estrategia tiene menos éxito en griego y hebreo. El uso intensivo de prefijos y sufijos en los paradigmas verbales, y el uso aglutinante del hebreo de preposiciones y artículos con prefijos y pronombres posfijados, junto con la característica ortográfica menos regular de los textos que circularon en los siglos anteriores a la impresión, dificultan la recuperación con una sola búsqueda. modelar todas las palabras que el diccionario clasifica juntas.
En principio, el programa de búsqueda puede realizar el análisis. Después de todo, así es como la gente lee los textos. Sin embargo, los mecanismos que utilizan las personas aún no se comprenden perfectamente, y lo que sabemos sobre ellos muestra que dependen del contexto e incluso del conocimiento general del mundo para resolver las ambigüedades del análisis sintáctico. Por lo tanto, la mayoría de los sistemas que permiten la recuperación por lema o análisis gramatical codifican el análisis sintáctico en la base del texto. Algunos sistemas (Morris y James 1975) registran solo lemas y códigos gramaticales y omiten por completo la forma textual de las palabras. Otros registran la forma textual de cada palabra junto con un código que indica su análisis gramatical (Friberg y Friberg 1981), y otros incluyen también lemas para algunas (Miller 1984) o todas (Radday 1973) palabras.
Las bases de texto analizado disponibles actualmente registran información a nivel de superficie. Se ha codificado un esquema de caso rudimentario de estructura profunda para algunos libros del AT y es útil para enmarcar preguntas de la forma, "Enumere todos los verbos que toman a Dios como paciente". Si se aumenta la base de un texto con una red semántica que modela el mundo conceptual de la comunidad dentro de la cual el texto circuló originalmente, entonces se pueden plantear preguntas de la forma: "¿Qué tiene que decir este texto sobre la moralidad?" Incluso si la palabra "moralidad" nunca aparece en el texto mismo, la red semántica permite la identificación de subclases del concepto "moralidad", y la recuperación puede entonces buscar los nombres de estos conceptos más específicos. Por ejemplo, a una base de texto aumentada con la red semántica del Anexo 1 se le podría pedir que enumerara todos los verbos cuyos agentes eran personas rectas,
Un inconveniente de las bases de texto ampliamente analizadas es la necesidad de grandes cantidades de almacenamiento para registrar el análisis. No todos los investigadores requieren los mismos tipos de análisis, y una base de texto lo suficientemente detallada para satisfacer las necesidades de todos los investigadores puede requerir tanto almacenamiento que ningún investigador puede permitirse acceder a ella. El "análisis adaptativo" es una estrategia para abordar este problema. En esta estrategia, el motor de búsqueda puede recuperar un análisis sintáctico de una anotación almacenada en la base del texto o (más lentamente) mediante el cálculo de la forma textual únicamente. Los análisis especializados se obtienen por cálculo pero, una vez encontrados, se agregan a la base de texto como anotaciones. Por lo tanto, a medida que se usa el sistema, se vuelve más eficiente en la recuperación de los tipos de información que el usuario ha solicitado en el pasado y se convierte en un asistente de investigación altamente personalizado.
C. Estrategia de almacenamiento. En un sistema de recuperación bien diseñado, los detalles de cómo se almacena el texto en la computadora están ocultos al usuario. Sin embargo, para comprender cómo funcionan los programas de búsqueda y para rastrear las diferencias entre varios programas, es útil comprender tres aspectos relacionados con la representación y el almacenamiento textuales: esquemas de transcripción, indexación y compresión.
La primera característica del griego y el hebreo que sorprende al principiante de habla inglesa es que usan alfabetos diferentes a los del inglés. Colocan los caracteres no solo alineados entre sí, sino uno encima y debajo del otro, y el hebreo incluso escribe "al revés", de derecha a izquierda en lugar de de izquierda a derecha. ¿Cómo se representan esas características dentro de la computadora?
Aunque la persona promedio piensa que la interacción con las computadoras se lleva a cabo en el alfabeto romano, este alfabeto no es más natural para la computadora que cualquier otro. Internamente, las computadoras modernas representan cada carácter como una celda de memoria (llamada "byte") que contiene un número del 0 al 255. Para almacenar la letra A en un byte, la computadora coloca el número 65 allí. Para almacenar el carácter 3 (no confundir con el número 3), la computadora usa el número 51. Incluso el espacio en blanco tiene un número asignado (32). Esta asociación entre números y caracteres es completamente arbitraria. Para representar hebreo o griego, los números se asignan a caracteres hebreos o griegos en lugar de romanos. Dado que los primeros programas solo podían mostrar caracteres romanos, los esquemas de asignación para hebreo y griego generalmente asignan caracteres a números que también representan letras romanas que recuerdan a la letra hebrea o griega. Por ejemplo, Heb beth y Gk beta generalmente se representan con el mismo número que representa el carácter romano b. En algunos casos (como los acentos hebreos), dos bytes juntos representan un solo carácter. Internamente, la computadora no distingue entre -derecha- e -izquierda-, y un terminal adecuadamente programado puede imprimir hebreo de derecha a izquierda con la misma facilidad con que uno convencional imprime inglés de izquierda a derecha. Algunos programas, como Bible Word, LBase y la utilidad GRAMGREEK de GRAMCORD, pueden mostrar e imprimir texto en fuentes hebreas y griegas, así como en transliteración.
La Biblia es un texto bastante extenso. La KJV, por ejemplo, contiene alrededor de 4.500.000 caracteres, o casi 800.000 palabras, en forma no lematizada. La adición de lemas o códigos gramaticales puede duplicar esta cifra. Buscar un texto de este tipo haciendo que la computadora lo lea secuencialmente puede ser una actividad que requiere mucho tiempo, especialmente si se busca un patrón complejo.
Para acelerar una búsqueda, algunos programas siguen el ejemplo de los lectores humanos, que normalmente buscan un pasaje que contiene una palabra en particular buscando la palabra en una concordancia. Una concordancia es un ejemplo de índice. Dado el elemento de interés, lo guía directamente a los lugares del texto que mencionan ese elemento. De la misma manera, algunos sistemas de recuperación bíblica usan índices del texto para acelerar el procesamiento. Algunos sistemas permiten a los usuarios crear sus propios índices a partir de búsquedas secuenciales y utilizarlos para acelerar las búsquedas futuras. Esta táctica es una versión simple de la estrategia de análisis adaptativo descrita anteriormente.
El tamaño de la Biblia requiere importantes recursos de almacenamiento externo. Además, una de las operaciones más lentas en una computadora es leer información del almacenamiento externo en la memoria, por lo que el tamaño del texto ralentiza el procesamiento. Para evitar estos problemas, muchos sistemas comprimen el texto. Un esquema popular consiste en reemplazar secuencias comunes de letras en el texto con códigos de bytes especiales que no se utilizan para caracteres ordinarios. Por ejemplo, si cada una de las 930 apariciones de "Jesús" en el NT se almacenara como un solo carácter, se podrían guardar 3720 caracteres. Los esquemas de compresión como este son una de las razones por las que se debe acceder a los archivos de datos utilizados por muchos sistemas de recuperación populares con sus programas de búsqueda asociados y no se pueden manipular con un procesador de texto estándar.
2. Programa de búsqueda. La base de texto es de relativamente poca utilidad sin un programa de búsqueda para recuperar información de ella. Los programas de búsqueda van desde lenguajes de manipulación de texto de uso general (como SNOBOL, Icon, awk o grep) que pueden procesar cualquier archivo ASCII hasta programas adaptados a las necesidades de los eruditos bíblicos. Su objetivo es producir listas, recuentos e índices de pasajes que cumplan con los criterios establecidos por el usuario. Sus diferencias más importantes están en la flexibilidad que tiene el usuario para describir los pasajes que se van a recuperar, contar o indexar. Estas diferencias conciernen tanto a las entidades a partir de las cuales se construye un patrón de búsqueda como a los tipos de restricciones entre estas entidades que el usuario puede especificar.
un. Entidades de búsqueda. Cada base de texto contiene caracteres, y los lenguajes generales de manipulación de archivos tratan los caracteres como su entidad básica. Los patrones de carácter son generales y flexibles, pero la mayoría de las preguntas exegéticas no se plantean a nivel de personajes sino en términos de entidades de nivel superior, como morfemas, frases, cláusulas o formas literarias. Un programa de búsqueda que manipula texto a nivel de caracteres requiere que el usuario traduzca las solicitudes de búsqueda de los objetos de mayor nivel de interés exegético en patrones de caracteres de bajo nivel. Un programa que manipula explícitamente agrupaciones de nivel superior es más fácil de usar. Si una base de texto está lematizada, se necesita un programa de búsqueda que comprenda las diferencias entre el texto, el lema y las anotaciones de análisis para aprovecharlo al máximo. Una implementación particularmente flexible de tal esquema es LBase de Silver Mountain,
B. Restricciones del patrón. Un programa de búsqueda proporciona al usuario un lenguaje para definir relaciones entre las entidades que reconoce. Una descripción redactada en este idioma se denomina patrón, y las entidades con las que el patrón coincide en el texto son sus objetivos. Algunas formas de patrones requieren que el texto se divida en segmentos (típicamente, líneas, oraciones o versos) dentro de los cuales se debe satisfacer un patrón.
La forma más simple de patrón es una lista fija. Por lo tanto, el patrón de caracteres "morir" coincidiría con todas las cadenas de caracteres que incluyan estos caracteres en este orden, incluidos "morir" y "murieron" (que el usuario probablemente desee), y también "audiencia" (que probablemente no se desee). Una lista fija no ofrece ninguna forma de recuperar tanto "de Dios" como "de nuestro Dios" con un solo patrón. Cada personaje del patrón debe coincidir con un personaje del objetivo y en el mismo orden.
Una mejora común de los patrones fijos son las combinaciones booleanas. Este esquema permite al usuario construir un patrón a partir de dos o más patrones más simples (como listas fijas) y especificar que deben aparecer dos patrones, o que debe aparecer uno u otro de dos, en un objetivo aceptable. Por ejemplo, el patrón "amor" y "Dios" coincidiría con cada segmento que contenga tanto la cadena "amor" como la cadena "Dios". Así recuperaría "el amor de Dios" y "amarás al Señor tu Dios", y también "amaron la alabanza de los hombres más que la alabanza de Dios".
El siguiente nivel de complejidad después de las combinaciones booleanas permite al usuario restringir el orden en el que ocurren los sub-objetivos y el material que puede ocurrir entre ellos. El dispositivo más común para este propósito es una especie de "comodín". Por ejemplo, el patrón "." se usa comúnmente para coincidir con cualquier carácter, y * coincide con cualquier secuencia de cero o más ocurrencias del carácter anterior. Entonces, el patrón "de. * Dios" coincide con todos los segmentos que contienen la cadena "de", seguida de cualquier serie de letras, luego un espacio y finalmente "Dios". Por lo tanto, coincide con "de Dios" y "de nuestro Dios". Una variedad de estos dispositivos están disponibles en paquetes como Bible Word que admiten toda la clase de lenguajes de cadenas conocidos formalmente como -expresión regular- (Hopcroft y Ullman 1979).
Algunos lenguajes de patrones permiten al usuario restringir el material intermedio de varias formas. GRAMCORD, por ejemplo, permite al usuario excluir cualquier categoría gramatical específica de intervenir entre patrones especificados, lo que facilita que el usuario se concentre en frases con la estructura deseada.
Hemos estado usando patrones de caracteres para ilustrar la búsqueda. Con un programa de búsqueda como LBase que razona con entidades de nivel superior como morfemas, palabras y oraciones, uno puede encontrar patrones fijos, combinaciones booleanas y posibilidades de comodines en esos niveles también. Patrones particularmente poderosos son posibles en un lenguaje que le permite a uno preguntar (por ejemplo) por todos los verbos que ocurren dentro de tres palabras de la frase -en Cristo-, sin verbos que intervengan. Una alta proporción de los objetivos que coinciden con dicho patrón serán cláusulas en las que la frase preposicional de hecho modifica el verbo.
Todos los patrones que hemos discutido hasta este punto coinciden solo sobre la base de la colocación de palabras en el texto, no sobre la base de sus relaciones gramaticales entre sí. Un verdadero comparador de patrones sintácticos puede recuperar cláusulas basadas en palabras que se encuentran en relaciones específicas de modificación o dependencia entre sí. Esta capacidad requiere un programa de búsqueda que pueda diagramar eficazmente las oraciones en el texto o una base de texto que esté codificada para dependencias gramaticales. Ambos enfoques son técnicamente factibles, pero ninguno de los dos se utiliza en los sistemas disponibles popularmente.
D. Analizar datos
En nuestro modelo de cuatro fases de actividad académica, el análisis de datos es la tercera fase, comparando los datos recopilados en la segunda fase con las hipótesis formuladas en la primera fase. Desde una perspectiva, el análisis es la actividad que confirma o refuta una hipótesis. Desde otra perspectiva, el problema no es la confirmación sino la exploración. Las desviaciones entre hipótesis y observación son el producto más importante de la etapa de análisis y alimentan la formulación de nuevas hipótesis para el próximo ciclo de investigación. En esta segunda visión, una hipótesis resume económicamente las regularidades en un conjunto de datos y centra la atención en las irregularidades restantes.
El análisis puede ser cualitativo (se ocupa de categorías, temas y otra información simbólica no numérica) o cuantitativo (se centra en los números extraídos del texto). La computadora ofrece herramientas para ayudar con ambos.
1. Análisis cualitativo. Dos herramientas informáticas comunes para el análisis cualitativo son la concordancia y el sistema de gestión de la base de datos, o DBMS.
un. Concordancias. Una concordancia es una lista de extractos de un texto, ordenados según alguna característica lingüística de cada uno. Por lo general, la característica es la aparición de una palabra, y la concordancia nos permite ver en un solo lugar todas las apariciones de esa palabra, junto con algún contexto para cada una. Ya hemos aludido al uso de una concordancia como índice para ayudar en la recopilación de datos. Una concordancia también presenta datos en una forma que es conveniente para muchos tipos de análisis. Biblical Research Associates publica una amplia variedad de concordancias generadas por computadora en la serie Computer Bible.
Las concordancias fueron una herramienta importante para los eruditos durante años antes de la llegada de la computadora, pero la preparación de una concordancia para un texto del tamaño de la Biblia requería toda una vida. Ahora las computadoras recopilan los datos para las concordancias mucho más rápidamente y en varios formatos adaptados a problemas exegéticos específicos. El popular formato Key-Word-In-Context o KWIC alinea las apariciones de la palabra de destino en el centro de la página (el "margen"). Dentro del artículo para una sola palabra, las entradas se pueden ordenar por contexto anterior o siguiente, lo que permite al usuario notar diferencias en las construcciones que involucran la palabra. El Anexo 3 ( Fig. COM.03) muestra una porción de una concordancia KWIC en la partícula Gk ei,"Si", de 1 Corintios, de Morton, Michaelson y Thompson 1979. Debido a que el contexto (en este caso, el contexto siguiente) está ordenado, la entrada reúne para un estudio conveniente frases como ei de, ei de tis y ei de christos.
Las concordancias inversas clasifican las palabras no por sus comienzos sino por sus finales y son útiles para identificar fragmentos de manuscritos que preservan el final de una palabra. A partir de un texto completamente analizado, se pueden preparar concordancias que organicen palabras por parte del discurso o conjugación y declinación, así como por lema o forma textual. A medida que los textos en línea se vuelvan más disponibles y el aumento de la potencia de cálculo se vuelva menos costoso, la noción de una concordancia impresa dará paso a pantallas similares a las concordancias preparadas según se necesiten.
B. Sistema de administración de base de datos. Una concordancia organiza un conjunto de contextos sobre la base de una única característica. Un DBMS permite al usuario explorar la interacción de varias funciones a la vez. En su forma más simple, un DBMS almacena información en forma de registros, cada uno de los cuales contiene un número fijo de campos. Es una versión automatizada de la venerable caja de fichas. Por ejemplo, una base de datos que respalde el estudio léxico de un sustantivo en particular podría dedicar un registro a cada construcción sintáctica en la que aparece el sustantivo. Un campo de cada registro puede registrar la referencia bíblica, otro el tipo de construcción en la que aparece el sustantivo, un tercero la palabra en la construcción a la que está ligado el sustantivo, un cuarto el tipo de literatura en la que ocurre el pasaje, y un quinto una breve definición apropiada para el sustantivo en este contexto.
Definir los campos para dicha base de datos equivale a construir una hipótesis sobre los tipos de información que resultarán relevantes para determinar el significado de una palabra en un contexto dado. Una vez que se registran las diversas construcciones, el DBMS permite al usuario clasificarlas y recuperarlas sobre la base de cualquier campo o combinación de campos para explorar correlaciones entre campos. Por lo general, el resultado del primer día dedicado a examinar una base de datos de este tipo es una redefinición de los campos, lo que refleja un refinamiento de la hipótesis original y, a menudo, requiere volver a la fase de recopilación de datos para completar las nuevas categorías. El uso de un DBMS permite la repetición de este proceso con mayor frecuencia y facilidad de lo que es posible con las fichas físicas.
2. Análisis cuantitativo. El análisis cuantitativo ha ganado popularidad entre los humanistas con la llegada de la computadora y el desarrollo de paquetes de software estadístico. Para muchas personas, "estudios bíblicos asistidos por computadora" es casi sinónimo de esfuerzos para evaluar la autoría de libros bíblicos a partir de características estilísticas, como vocabulario, riqueza de vocabulario, usos gramaticales y modismos (Morton 1978; Radday y Shore 1985). .
La estadística moderna ofrece dos clases de herramientas: análisis de datos confirmatorios y análisis de datos exploratorios. Si bien el análisis confirmatorio ha atraído mucha atención, a menudo se aplica incorrectamente. El análisis de datos exploratorios ofrece un enorme potencial sin explotar para los estudios bíblicos.
un. Análisis de datos confirmatorios. El análisis de datos confirmatorios (CDA) es una encarnación matemática del lado del análisis que busca confirmar o refutar una hipótesis. La hipótesis define una población, de la cual los datos pretenden extraerse. CDA evalúa esta afirmación al estimar la probabilidad de que los datos provengan de esa población.
Por ejemplo, en estudios típicos de autoría, el analista deriva las características del estilo de un autor a partir de una muestra de texto que se sabe que proviene de ese autor. Se espera que las características elegidas permanezcan bastante constantes en todas las obras del autor, pero varíen de un autor a otro. Nadie espera que un autor produzca exactamente el mismo valor para tales características en cada texto, pero la variación entre los textos conocidos se puede medir y usar para estimar hasta qué punto el autor podría desviarse de los valores promedio. El analista mide las características correspondientes de un texto de autoría desconocida y calcula la probabilidad de que una población de textos que exhiben los valores y rango de variación mostrados por los textos conocidos también pueda incluir textos con los valores mostrados por los textos desconocidos.
CDA también es un conjunto útil de herramientas para abordar cuestiones gramaticales y estructurales. Por ejemplo, la palabra "espíritu" aparece 26 veces en Romanos, 18 de ellas en el cap. 8. ¿Podría tal concentración de vocabulario resultar de una distribución aleatoria de palabras sobre el texto, o refleja la estructura temática del libro? CDA proporciona medios cuantitativos para evaluar la importancia de tales concentraciones.
Los estudios que aplican CDA deben afrontar varios desafíos. Los discutiremos en términos de estudios de autoría, pero existen calificaciones similares para cualquier aplicación de estos métodos. Para referencias y discusión adicional, vea Andersen (1976). Un modelo de análisis es Mosteller y Wallace (1964).
La muestra utilizada para definir la población debe ser del autor en cuestión. Si no tenemos textos que se sepa que sean de un autor, difícilmente podremos establecer parámetros para calificar textos desconocidos.
Si las diferencias entre las muestras conocidas y desconocidas deben atribuirse a diferentes autores, las muestras no deben diferir de otras formas (como género literario, tema, período de la vida del autor, actividad editorial posterior o registro lingüístico). Si las muestras difieren de varias formas simultáneamente, resulta muy difícil determinar cuál de las diferencias es responsable de los diferentes valores de las características que mide el estadístico. Los estudios literarios a veces buscan eludir este problema enfocándose en palabras funcionales (como preposiciones, conjunciones, pronombres relativos y la cópula) en lugar de palabras de contenido (como sustantivos, verbos y adjetivos) asumiendo que el uso de un autor mostrará más consistencia. en palabras funcionales que en palabras de contenido. Esta distinción puede ser cierta para el tema, pero no aborda las diferencias de género o registro. Por ejemplo, es bien sabido que algunas partículas ocurren con mucha menos frecuencia en la poesía hebrea que en la prosa, independientemente de la autoría.
En los estudios estadísticos en general, más datos son mejores que menos. La precisión de los resultados a menudo tiende a aumentar como la raíz cuadrada del número de observaciones. Para obtener una respuesta el doble de precisa, se necesitan cuatro veces más datos. Los estudios de autoría histórica en la literatura no bíblica suelen utilizar del orden de 100.000 palabras de texto, mucho más allá de la cantidad de datos disponibles para los estudios de autoría bíblica.
Si se aplica correctamente, la CDA es una herramienta indispensable, pero la promesa de un veredicto de "verdadero-falso" que se mantiene es seductora. Es fácil pasar por alto los extensos escollos metodológicos y asumir que, si un procedimiento arroja un número, la respuesta es segura. La aplicación responsable de estas técnicas requiere una colaboración estrecha y extendida entre exegetas que entienden qué preguntas son significativas en términos del texto y estadísticos con una base sólida en las capacidades y limitaciones de sus herramientas. Las introducciones accesibles a CDA incluyen Mosteller, Rourke y Thomas (1961) y Mosteller y Rourke (1973).
B. Análisis exploratorio de datos. Los últimos años han visto una explosión de interés estadístico en el análisis de datos exploratorios (EDA). Donde CDA personifica la visión de una hipótesis como una afirmación para ser probada o refutada, EDA implementa la visión de que una hipótesis es una explicación parcial de los datos, cuyos efectos deben entenderse y eliminarse para que se puedan ver patrones adicionales. EDA no emite un veredicto sobre hipótesis, pero le da a uno el equivalente matemático de una lupa, aclarando los datos como entrada a la discreción académica. Sus técnicas pueden revelar la estructura y el orden que de otro modo permanecerían ocultos en los datos. La piedra angular de EDA es Tukey (1977), junto con Mosteller y Tukey (1977).
Estas técnicas se han utilizado, por ejemplo, para explorar la distribución de los verbos fronterizos entre las tribus en Josué 14-19. Comenzando con una tabla que indica cuántas veces cada lista de límites tribales usa cada uno de los verbos, las técnicas EDA de pulido medio y recodificación sugieren una fuerte preferencia por cinco de los verbos en los límites de Benjamín, Judá, Efraín y Manasés, mientras que cuatro otros verbos dominan los límites de Zabulón, Isacar, Aser y Neftalí. Esta observación, que sería difícil de realizar sin estas técnicas, puede correlacionarse de varias formas con el contexto de la asignación de la tierra.
Las técnicas de Tukey (1977) se pueden aplicar con papel y lápiz, aunque las implementaciones por computadora son cada vez más comunes. Otras técnicas de EDA implican cálculos masivos que requieren asistencia informática. Entre estos se encuentran el análisis de conglomerados y la escala multidimensional (Parunak 1989a). Ambas técnicas brindan formas de visualizar las diferencias entre una serie de elementos (por ejemplo, palabras de vocabulario o manuscritos). Comienzan con una estimación de similitud para cada par de elementos. El análisis de conglomerados explora qué tan bien se pueden explicar estas similitudes como resultado de un conjunto de categorías diferentes y busca recuperar las categorías subyacentes. El escalado multidimensional (MDS) busca construir un modelo geométrico del conjunto de similitudes, permitiendo así al estudioso ver una disposición espacial de los elementos que corresponde a las similitudes subyacentes. El Anexo 2 (Fig. COM.02) es un ejemplo de los resultados de MDS.
Un principio central de EDA es que una imagen vale mil dígitos. Las tablas de números son difíciles de entender incluso si uno sabe lo que está buscando, pero una gráfica o diagrama apropiado puede llevar al observador a hipótesis imprevistas. Las computadoras pueden generar gráficos fácilmente y, por lo tanto, aprovechar la información que puede brindar una imagen.
Por ejemplo, Linguistic Density Plots (Parunak 1981a) muestran la distribución de un fenómeno lingüístico (como una palabra específica o una construcción gramatical) a lo largo de un texto, con ubicación en el texto en el eje horizontal y concentración en el eje vertical. El resultado es una serie de picos que muestran en qué parte del texto se concentra el fenómeno. Tal trama le da al académico una "sensación" de concentraciones que es casi imposible de lograr con una lista de concordancias solamente. Ofrece pistas sobre la estructura literaria que serían difíciles de encontrar sin ella.
Los cuadros 4-6 muestran tres diagramas de densidad de la epístola de Pablo a los Romanos. Cada viñeta oscura en la trama representa una ocurrencia separada de la palabra que se traza. Aparece un número entero en lugar de una viñeta si dos o más ocurrencias están una encima de la otra. El eje horizontal o "REFERENCIA" muestra la ubicación en el libro, con los comienzos de los capítulos etiquetados y cada posición horizontal representa cuatro versículos. El eje vertical o "DENSIDAD" se calcula de tal manera que cuanto más alto se traza un punto, más cerca está de las ocurrencias adyacentes del mismo fenómeno.
El Anexo 4 ( Fig. COM.04) muestra una concentración dramática de palabras que comienzan con Israel (como -Israel- e -Israelita-) en los capítulos. 9-11. Esta distribución no sorprende a nadie familiarizado con la estructura general de los romanos. Sin embargo, el Anexo 5 ( Fig. COM.05) del verbo sozo, "salvar", y las palabras que comienzan con soter (como "salvador" y "salvación"), es fascinante. Muestra que también estas palabras, que muchos sospecharían que son características de toda la epístola, están concentradas en capítulos. 9-11, y sugiere que la restauración de Israel contemplada en estos capítulos no es solo una ocurrencia tardía de la preocupación del libro por la salvación, sino un elemento integral en la discusión. Anexo 6 (Fig. COM.06) muestra que los sustantivos y verbos que describen -misericordia- también predominan en estos tres capítulos, esta vez en concentraciones que forman una inclusio al principio y al final de la sección.
No todas las parcelas son iguales. Algunos paquetes de gráficos por computadora crean gráficos llamativos que de hecho oscurecen en lugar de aclarar los datos, y algunos tipos de pantallas son mejores que otros para mostrar tipos específicos de datos. El omnipresente gráfico circular, por ejemplo, comunica la preponderancia de una categoría sobre otra, pero las pruebas han demostrado que los espectadores no pueden extraer información cuantitativa de él de la forma más confiable posible de un gráfico de barras o un gráfico de líneas. Como otro ejemplo, un cambio en los ejes de un gráfico lineal o diagrama de dispersión (digamos, de lineal a logarítmico o cuadrado) puede cambiar drásticamente las intuiciones sugeridas por los datos. Tufte (1983) y Cleveland (1985) son excelentes guías para la presentación gráfica de datos.
E. Presentar resultados
La erudición bíblica implica una conversación continua entre los estudiantes pasados, presentes y futuros del texto. La computadora ofrece nuevas herramientas para ayudar y moderar esta conversación, tanto haciendo un uso más efectivo de los medios impresos tradicionales como como medio de comunicación por derecho propio.
1. Medios impresos. La primera introducción que muchos humanistas tienen a las computadoras es como procesadores de texto. Por más mundana que parezca esta aplicación, ha llevado a un aumento dramático en la facilidad y velocidad de mover ideas de una mente a otra. Las correcciones y modificaciones son mucho más sencillas de hacer que antes, y muchos editores pueden trabajar directamente a partir del texto legible por máquina de un autor, evitando así el cambio de clave de un manuscrito para la composición tipográfica, que consume mucho tiempo y es propenso a errores.
Hemos hablado de las concordancias y las tramas como herramientas de análisis. La facilidad con la que se pueden adaptar para un propósito específico también los hace atractivos como ayudas para comunicar al lector la evidencia que respalda los argumentos de un autor, al tiempo que impone una responsabilidad adicional al autor para asegurarse de que sean claros y no engañosos.
2. La computadora como medio. Además de producir material para la distribución impresa, las computadoras pueden ser por sí mismas el medio de actividad académica. Quizás el primer ejemplo de esta tendencia sea la instrucción asistida por computadora. Para ejercicios básicos de vocabulario y paradigmas en el estudio de idiomas, las computadoras ofrecen una versión flexible de la venerable tarjeta flash. Las tecnologías más recientes que están transformando la computadora en un medio de conversación académica incluyen redes e hipermedia.
un. Redes. La creación de redes, la vinculación de las computadoras para que puedan intercambiar información, ya es un medio importante de interacción académica diaria en las ciencias. El correo electrónico (correo electrónico) pasa por alto el membrete, las secretarias, las estampillas, los sobres y los carteros, y transporta mensajes directamente desde la computadora de un académico a la de otro, con servicio el mismo día incluso al otro lado del océano. El correo electrónico es más rápido y confiable que el correo convencional y (a diferencia de la conversación telefónica) no requiere que ambas partes sean libres al mismo tiempo.
La conferencia por computadora o el tablero de anuncios es el equivalente informático de una discusión. En su forma más simple, consiste en una serie de comentarios de los participantes sobre un tema de interés. Los participantes posteriores pueden leer los comentarios de los participantes anteriores y ofrecer sus respuestas y observaciones. La creación de redes permite que personas que están muy separadas geográficamente participen en la discusión. Los participantes no suelen participar al mismo tiempo. Al igual que con el correo electrónico, la conferencia por computadora mantiene un registro de la discusión para que en cualquier momento los participantes puedan revisar los comentarios y agregar los suyos.
A medida que más académicos preparan su investigación en forma electrónica, se vuelve cada vez más factible para los editores apoyar las presentaciones mediante la creación de redes. En el ámbito de las ciencias, se están realizando activamente investigaciones para permitir que todo el proceso de envío, revisión y corrección se realice por correo electrónico, sin necesidad de circular en papel. El siguiente paso es la revista electrónica, distribuida a los lectores finales por la red en lugar de en papel.
B. Hipermedia. Hipermedia es el término genérico para una colección de elementos de información vinculados entre sí de modo que un usuario puede pasar de un elemento a cualquiera de los varios asociados con él, según la necesidad y el interés. Si los elementos de información se limitan al texto, se habla de "hipertexto". Una enciclopedia es un ejemplo simple de hipertexto, con los artículos que constituyen los elementos de información y el movimiento de un elemento a otro guiado por referencias cruzadas incrustadas en los artículos. La característica fundamental de un repositorio de información estructurado como hipermedia es que ayuda al usuario a moverse en muchas secuencias diferentes, en lugar de en un orden lineal fijo, como es habitual en libros y artículos de revistas.
Anexo 7 (ver Fig. COM.07) ilustra SymEdit, una aplicación de la tecnología de hipertexto. La literatura bíblica hace un uso extensivo de repeticiones simétricas de palabras, construcciones gramaticales e ideas para definir los tipos de estructura que las marcas de párrafo y los títulos de los capítulos proporcionan en la literatura moderna (Parunak 1981b). Para descubrir y analizar tales estructuras, los académicos comúnmente fotocopian el pasaje, lo cortan en pedazos con tijeras y tratan de organizar las piezas para acercar secciones similares entre sí para compararlas. Si bien las pantallas resultantes son extremadamente útiles, las manipulaciones mecánicas necesarias para producirlas son tediosas y torpes. SymEdit permite a un analista organizar un texto en columnas (correspondientes a pasajes paralelos) y filas (que contienen características repetidas). Las filas se pueden etiquetar para identificar las características que aíslan. Las filas y columnas individuales se pueden contraer o expandir para acercar otros materiales y compararlos. La exhibición muestra el comienzo de cuatro paneles en Deuteronomio 12, cada uno de los cuales sigue la misma estructura al legislar el culto en un santuario central. Al expandir la estructura unidimensional del texto impreso en dos dimensiones, SymEdit ayuda al académico a identificar y analizar estructuras repetitivas. SymEdit también es útil para realizar comparaciones críticas y para estudiar relatos narrativos paralelos. SymEdit ayuda al académico a identificar y analizar estructuras repetitivas. SymEdit también es útil para realizar comparaciones críticas y para estudiar relatos narrativos paralelos. SymEdit ayuda al académico a identificar y analizar estructuras repetitivas. SymEdit también es útil para realizar comparaciones críticas y para estudiar relatos narrativos paralelos.
Si bien el hipertexto existe desde hace años en forma de enciclopedias, la tecnología informática lo hace más compacto, más fácil de usar y más versátil. El volumen de información contenido en una enciclopedia completa de 20 volúmenes se puede almacenar en forma electrónica en un disco óptico de menos de seis pulgadas de diámetro y un octavo de pulgada de espesor. Un sistema de hipertexto computarizado puede saltar rápidamente de un elemento a otro en dicho disco con el toque de una tecla, sin la necesidad de que el usuario pase las páginas o cambie los volúmenes. Debido a que el disco puede almacenar imágenes gráficas y de sonido, así como texto, dicho sistema puede proporcionar hipermedia completo.
Por ejemplo, el sistema de CD-Word actualmente en desarrollo en el Seminario Teológico de Dallas permitirá que un usuario que esté leyendo un texto bíblico en forma electrónica invoque varias traducciones de un versículo, para saltar a una entrada de léxico para cualquier palabra en el texto, o para acceder a comentarios, gramáticas y enciclopedias seleccionados sobre un pasaje en consideración. El objetivo es proporcionar en un solo sistema informático un entorno comparable al que proporcionan una estantería de libros y un escritorio en el estudio convencional. El sistema CELLAR, un diseño del Instituto Lingüístico de Verano, permitirá a un lingüista ordenar notas de campo, organizar estudios léxicos y comparar múltiples traducciones mientras prepara una nueva versión de un texto bíblico. Algunos diseños permiten a los usuarios agregar sus anotaciones personales a la red de información,
Al principio, tales sistemas serán bibliotecas electrónicas independientes, pero la visión última de los hipermedia (Nelson 1987) combina la noción de unidades de información vinculadas con redes de computadoras para anticipar un mundo en el que el recurso global del conocimiento humano sea accesible desde cualquier computadora. .
Bibliografía
Alter, R. 1985. El arte de la poesía bíblica. Nueva York.
Andersen, FI 1976. Estilo y autoría. El documento de Tyndale 21: 2.
Baird, JA y Freedman, DN, eds. 1971-. La Biblia de la Computadora. Wooster, OH.
Beekman, J. y Callow, J. 1974. Traduciendo la Palabra de Dios. Grandes rápidos.
Brachman, RJ y Levesque, HJ 1985. Readings in Knowledge Representation. Palo Alto.
Cleveland, WS 1985. Los elementos de la representación gráfica de datos. Monterey.
Collins, T. 1978. Line-Forms in Hebrew Poetry. Studia Pohl: Serie Maior 7. Roma.
Cook, WA 1979. Gramática de casos: desarrollo del modelo matricial (1970-1978). Washington.
Fillmore, CJ 1968. The Case for Case. En Universals in Linguistic Theory, ed. E. Bach y R. Harms. Englewood Cliffs, Nueva Jersey.
Friberg, T. y Friberg, B. 1981. Un análisis asistido por computadora del texto griego del Nuevo Testamento. En Patton y Holoien 1981.
Geller, SA 1979. Paralelismo en la poesía bíblica temprana. HSM 20. Missoula.
Grimes, JE 1975. The Thread of Discourse. La haya.
Hockey, SM 1980. Una guía de aplicaciones informáticas en las humanidades. Baltimore.
Hopcroft, JE y Ullman, JD 1979. Introducción a la teoría, los lenguajes y la computación de los autómatas. Reading, PA.
Hughes, JJ 1987. Bits, Bytes y Biblical Studies. Grandes rápidos.
Longacre, RE 1976. Anatomía de las nociones del habla. Lisse, Holanda.
Mann, WC y Thompson, SA 1987. Teoría de la estructura retórica: una teoría de la organización del texto. En La estructura del discurso, ed. L. Polanyi. Norwood, Nueva Jersey.
Miller, PA 1984. Manual de referencia de GRAMCORD. Deerfield, MI.
Morris, PMK y James, E. 1975. Un libro de palabras críticas de Levítico, Números, Deuteronomio. Biblia de computadora 8. Wooster, OH.
Morton, AQ 1978. Detección literaria: cómo demostrar autoría y fraude en literatura y documentos. Nueva York.
Morton, AQ; Michaelson, S .; y Thompson, JD 1979. Una concordancia crítica con I y II Corinthians. Biblia de computadora 19. Wooster, OH.
Mosteller, F. y Rourke, REK 1973. Sturdy Statistics. Reading, PA.
Mosteller, F .; Rourke, REK; y Thomas, GB, Jr. 1961. Probabilidad y estadística. Reading, PA.
Mosteller, F. y Tukey, JW 1977. Análisis y regresión de datos. Reading, PA.
Mosteller, F. y Wallace, DL 1964. Inferencia y autoría en disputa. Reading, PA.
Nelson, T. 1987. Literary Machines. San Antonio.
O’Connor, M. 1980. Estructura del verso hebreo. Winona Lake, IN.
Parunak, HVD 1979. Structural Studies in Ezekiel. Doctor. Diss. , U. de Michigan.
—. 1981a. Tipografía oral: algunos usos de la estructura bíblica. Bib 62: 2, 153-68.
—. 1981b. Prolegómenos a las concordancias pictóricas. Las computadoras y las humanidades 15: 15-36.
—. 1983. Técnicas de transición en la Biblia. JBL 102: 525-48.
—. 1989a. Interrogando una lengua muerta. En Parunak 1989b.
Parunak, HVD, ed. 1989b. Herramientas informáticas para textos antiguos. Winona Lake, IN.
Patton, PC y Holoien, RA 1981. Computación en Humanidades. Lexington, KY.
Radday, YT 1973a. Una concordancia crítica de Hageo, Zacarías, Malaquías. Biblia de computadora 4. Wooster, OH.
—. 1973b. La unidad de Isaías a la luz de la lingüística estadística. Hildesheim.
Radday, YT y Shore, H. 1985. Génesis: un estudio de autoría. Roma.
Tufte, ER 1983. La presentación visual de información cuantitativa. Cheshire.
Tukey, JW 1977. Análisis de datos exploratorios. Reading, PA.
H. VAN DYKE PARUNAK
[29]