Información

Cronología de trepanación


  • 6500 a. C.

    Primera evidencia del procedimiento quirúrgico de trepanación encontrada en Francia.

  • 5000 a. C.

    Evidencia del procedimiento quirúrgico de trepanación encontrada en China.

  • 950 a. C. - 1400 a. C.

    Evidencia del procedimiento quirúrgico de trepanación encontrada en Mesoamérica.


Hematoma subungueal

A hematoma subungueal es una acumulación de sangre (hematoma) debajo de la uña del pie o de la mano (uña negra). Puede ser extremadamente doloroso para una lesión de su tamaño, aunque por lo demás no es una afección médica grave.

Hematoma subungueal
Otros nombresDedo del corredor, dedo del pie del tenis, dedo del pie del esquiador
Hematoma subungueal de un dedo del pie
EspecialidadMedicina interna, Podología
SíntomasDecoloración de la uña, dolor
Factores de riesgoCalzado mal ajustado, sobreentrenamiento, especialmente al caminar y correr
TratamientoSuele ser inmerecido, drenaje de sangre o extracción de uñas en casos graves.
PronósticoPor lo general, se resuelve automáticamente a medida que crece la uña.


Desordenes mentales

Actualmente me especializo en historia y en psicología en la Universidad de Nuevo México (UNM). Dicho esto, planeo combinar las dos disciplinas en la cartografía de los trastornos mentales tal como se han percibido médicamente y se han registrado históricamente a lo largo del tiempo. El primer registro histórico de trastornos mentales se remonta a 10,000 años, sin embargo, me enfocaré principalmente desde el 400 a.C. hasta el presente. Dado que no puedo incluir todos los episodios grabados, proporcionaré los ejemplos más significativos que fueron y son ampliamente aceptados. Los valores académicos dentro de estos trabajos están destinados a resumir y educar a los lectores sobre los trastornos mentales a lo largo de la mayor parte de la historia documentada, así como por qué es importante que estas áreas continúen siendo investigadas y desarrolladas. trastornos que incorporan las causalidades percibidas, así como los tratamientos, ya que ambos progresan a través de la historia documentada.

Parece un poco loco, este acto de "TREFINACIÓN" Durante este período, si algo andaba mal con la cabeza de una persona, simplemente perforaban un agujero y soltaban el "MALO". [fuente]

La historia documentada de los trastornos mentales se remonta a los últimos "10.000 años, y la línea de tiempo se mantiene evidente a través de la evidencia de Trepanación en toda Europa ”(Pitsios, 239). Con más de “200 cráneos encontrados desde Escandinavia hasta los Balcanes” (Pitsios, 239). Esta antigua técnica fue la primera operación quirúrgica y sirvió para numerosos propósitos. Es la evolución a lo largo de los períodos que avanzan los medios técnicos, los conocimientos y las necesidades terapéuticas a medida que transcurría el tiempo. “Hipócrates fue el que clasificó por primera vez los tipos de fracturas craneales y definió las condiciones y circunstancias para realizar la trepanación” (Pitsios, 239). El desafío historiográfico de trazar cómo escribieron los historiadores sobre desordenes mentales es que no lo hicieron hasta finales del siglo XIX y principios del XX. Dicho esto, derivé mi información historiográfica de las teorías y modelos de comportamiento que se practicaban en ese momento.

“En 400 a. C. Hipócrates sugirió que los trastornos mentales son causados ​​por atributos biológicos y psicológicos ”(Barlow, 30). Hipócrates, también conocido como Hipócrates II, fue un médico griego, considerado una de las figuras más destacadas de la historia de la medicina, así como “el padre de la medicina occidental” (Barlow, 14). Es evidente que durante este tiempo se pensaba que los trastornos mentales se curaban mediante la perforación de agujeros, a través de partes específicas del cráneo, permitiendo que la presión se liberara junto con los malos espíritus. Sin embargo, durante los “siglos XVIII y XIX, las operaciones de trepanación habían sido rechazadas como método quirúrgico terapéutico, debido a la alta mortalidad que alcanzaba el 100% en ese momento” (Pitsios, 240). La forma en que se percibieron los trastornos mentales durante este período puede parecernos bárbara y brutal ahora, pero en ese momento, este método era el tratamiento quirúrgico más avanzado y servía como plataforma desde la que trampolín la investigación psicológica.

En el 200 d.C. Galeno, un médico romano adoptó e incorporó las ideas de Hipócrates que crearon una escuela de pensamiento duradera en todo el campo de la psicopatología. Sugirió que los comportamientos normales y anormales están relacionados con cuatro fluidos corporales o humores. Estos fluidos / humores debían mantenerse en niveles específicos para que las personas funcionen "normalmente". Los cuatro humores incluyen colérico (bilis amarilla, fuego), melancólico (bilis negra, tierra), sanguíneo (sangre, aire) y flemático (flema, agua). Esta tradición biológica continuaría hasta el siglo XIX. Las vías por las que los de esta época percibían los trastornos mentales eran primitivas, pero progresivas. El avance en el pensamiento, la práctica y el conocimiento lleva a los de este período a construir sobre ciertos aspectos, así como a deshacerse de otros. Con la creencia de que los trastornos mentales fueron causados ​​puramente por aspectos fisiológicos, los pensadores de este período se basarían en la tradición biológica practicada durante los últimos cientos de años.

¿Malvado o incomprendido? Se pensaba que los individuos en este período estaban poseídos por lo sobrenatural en lugar de estar mentalmente enfermos [fuente]

La historia documentada de los trastornos mentales parece haber tomado una pausa de novecientos años, ya que la línea de tiempo no se recuperó hasta el 1300. Debido a la falta de enfoque de los historiadores, la mayor parte de la información contenida en estos trabajos se deriva de aquellos dentro del campo médico y psicológico, ya que fueron las únicas personas que documentaron este tema. Los trastornos mentales en este período se atribuyen a demonios y brujas. Superstición fue generalizada, con exorcismos que se realizaban para librar a las víctimas de "espíritus malignos". A finales de la Edad Media, la enfermedad mental no se reconocía como tal. En cambio, los perturbados mentales fueron acusados ​​de brujería ”(Spanos, 417). A finales del siglo XIV, los poderes religiosos a cargo comenzaron a apoyar estas supersticiones debido a su creciente popularidad entre la sociedad europea.

En este momento, los trastornos mentales no estaban documentados directamente como tales, sin embargo, libros sobre brujas fueron publicados. "El Malleus Maleficarum, o en latín, El martillo de las brujas", fue escrito por Heinrich Krameren 1486. ​​El objetivo principal del libro era desafiar todos los argumentos contra la existencia de la brujería e instruir a los magistrados sobre cómo identificar, interrogar y condenar a las brujas. Un siglo después, en 1580, Jean Bodin publicaría "Sobre la demoníaca de las brujas, o en francés, De la démonomanie des sorciers". Entonces, en este punto de la historia del pensamiento con respecto a los trastornos mentales, ellos no tenían la culpa del comportamiento anormal / desviado, sino que la brujería sería la culpable.

Se pensaba que las brujas y los demonios poseían aquellos cuyos comportamientos extraños exhibidos por aquellos que eran enfermos mentales, en realidad eran vistos como obra del diablo. Los tratamientos para estos desordenes mentales se apoyó únicamente en la religión para curar a los individuos. Con el “exorcismo, en diversos rituales religiosos se realizaron en un esfuerzo por librar a la víctima de los malos espíritus. Afeitar el patrón de la cruz en el cabello de la cabeza de las víctimas y asegurar a los que sufren a una pared cerca del frente de la iglesia para que puedan beneficiarse al escuchar la misa ”(Barlow, 10). Estas supersticiones se abrieron paso a lo largo de los siguientes siglos. Como la causalidad del mal y la locura se atribuyó a la brujería y la hechicería en el siglo XV. Esta "causalidad" incluso se extendió a través del Atlántico, como "lo evidenciaron los juicios por brujería en Salem, Massachusetts, a fines del siglo XVII, que resultaron en la muerte de numerosas mujeres en la horca" (Barlow, 10). Debido a que la mayoría de los acusados ​​de tener estos poderes y / o posesiones admitían abiertamente “haber realizado actos imposibles como volar por los aires, se engañaban y probablemente muchos eran esquizofrénicos” (Spanos, 417).

El tratamiento de la posesión que no estaba relacionada con la religión era aún más extraño, especialmente a primera vista. Un tratamiento consistía en “suspender a la persona poseída sobre un pozo lleno de serpientes venenosas para que pudiera asustar a los espíritus malignos y sacarlos de sus cuerpos” (Barlow, 11). Por extraño que parezca, a veces esta táctica / tratamiento realmente surtió efecto. “Los individuos que se comportan de manera extraña de repente recobran el sentido y experimentan alivio de sus síntomas, aunque solo sea temporalmente” (Barlow, 11). Otros métodos de tratamiento consistieron en “sumergir a la (s) persona (s) en agua helada” como elemento de choque (Barlow, 11). En el 1500 Paracelso, médico y astrólogo suizo fue pionero en varios aspectos de la revolución médica del Renacimiento. Propone que no es el diablo o los espíritus malignos los que afectan el funcionamiento psicológico de las personas, sino la luna y las estrellas. Desde 1400-1800, aquellos que se pensaba que tenían trastornos mentales también fueron tratados por flebotomía y sanguijuelas para eliminar los fluidos nocivos del cuerpo y restablecer el equilibrio químico.

La escuela biológica de pensamiento continuó “con altibajos durante los tiempos de Hipócrates y Galeno, pero se revitalizó en el siglo XIX debido a dos factores” (Barlow, 14). Uno, el descubrimiento y la causalidad de sífilis, y dos, un fuerte apoyo del psiquiatra estadounidense más influyente en ese momento, John P. Gray. Se le considera "el campeón de la tradición biológica en los Estados Unidos" (Barlow, 14). John P. Gray era el director del Hospital Utica de Nueva York. Creía que la locura era causada por atributos físicos, que restaron importancia a los tratamientos psicológicos. Los campos de la psicopatología, la psicología y la psiquiatría se dirigían ahora en una dirección científica, mientras que antes se los consideraba espirituales tanto en las causalidades como en el tratamiento. Esta dando paso a la terapia moral.

En 1793 Philippe Pinel, un médico francés que tuvo una gran influencia en el desarrollo de un enfoque psicológico más humano para el cuidado y la custodia de los pacientes psiquiátricos, que en la actualidad se conoce más comúnmente como terapia moral. El presenta terapia moral e implica prácticas más humanas en las instituciones mentales francesas. “En el siglo XIX, los trastornos mentales se atribuían al estrés mental o emocional, por lo que los pacientes a menudo eran tratados con simpatía en un ambiente tranquilo e higiénico” (Barlow, 17). Este nuevo enfoque fue bastante la dicotomía de las prácticas anteriores.

En 1848 Dorothea Dix, como un defensor estadounidense de los enfermos mentales que luchó a través de cabildeo en las legislaturas estatales y el Congreso de los Estados Unidos, ayudó a crear la primera generación de asilos mentales estadounidenses que hacen campaña con éxito por el tratamiento humano en las instituciones mentales estadounidenses. Hasta el momento en la historia de los trastornos mentales, la documentación ha transmitido las formas en que estos problemas se perciben y se tratan. Por primera vez en el campo de los trastornos mentales, se incorporó la creencia de que los pacientes no solo necesitaban tratamiento, sino que también necesitaban compasión. Este cambio de pensamiento es drástico con respecto a los temas anteriores, pero demostraría ser un componente vital en el presente.

Otro aspecto de este período de tiempo que es importante para los campos aplicables es Emil Kraepelin, uno de los padres fundadores de la psiquiatría moderna publica trabajos sobre diagnóstico, clasificando numerosos trastornos psicológicos desde una perspectiva biológica. Antes de esto, aún no se habían incorporado el diagnóstico, la clasificación y la estratificación. Se podrían asignar "palabras" reales a los comportamientos, que luego transmitirían los síntomas combinados en áreas separadas y específicas. Otro gran paso en la dirección "progresiva" para los psicólogos que sería duradero e impactante.

En todo el mundo, numerosas personas comenzaron a desarrollar diferentes hipótesis, teorías y nuevas ramas del campo de los trastornos mentales. En 1900 Sigmund Freud, un neurólogo austriaco y fundador del psicoanálisis, que es un método clínico para tratar la psicopatología a través del diálogo entre un paciente y un psicoanalista, publicó "La interpretación de los sueños". Mientras que en 1904 Ivan Pavlov, un fisiólogo ruso conocido principalmente por su trabajo en el condicionamiento clásico recibió el Premio Nobel por sus estudios sobre la fisiología de la digestión. Desde el punto de vista de los psicólogos del comportamiento, quienes padecen ciertos trastornos mentales podrían ser tratados con el condicionamiento clásico de Pavlov. Los de esta época iniciaron prácticas de alteración de la psicosis de numerosas avenidas mediante actos de condicionamiento y extinción.

El conductismo sería acuñado por John B. Watson, un psicólogo estadounidense que estableció la escuela psicológica del conductismo. Apoyó un cambio en la psicología a través de su discurso sobre la psicología como la ve el conductista, que pronunció en la Universidad de Columbia en 1913. En 1920 John B. Watson Experimentos del "pequeño Albert" que tratan con el miedo condicionado, mediante el uso del condicionamiento operante. Este fue el término acuñado más tarde por B.F. Skinner en 1938. Desarrolla los principios del condicionamiento operante a través de su publicación de The Behavior of Organisms, que reforzamiento y formación se utilizaron para "corregir" el comportamiento de un individuo.

Un tratamiento aparentemente "impactante". ¿Puede la terapia de descarga eléctrica ser beneficiosa para el tratamiento de los trastornos mentales? [fuente]

Retrocediendo un poco en el tiempo hasta 1930, tratamientos de descargas eléctricas al igual que cirugía cerebral, comenzó a utilizarse para el tratamiento de la psicopatología. Otro que psicocirugía tal como trepanación, ECT es el tratamiento más controvertido para los trastornos mentales. Las ideas para esto se remontan aún más atrás, pero para no haber interrumpido la continuidad de Behaviorismo Salté en mi cronología. Benjamin Franklin “descubrió accidentalmente, y luego confirmó experimentalmente en la década de 1750, que una leve descarga eléctrica producía una breve convulsión y pérdida de memoria, pero que por lo demás causaba poco daño. Poco después, un amigo de Franklin, un médico holandés, propuso que este shock podría servir como tratamiento para la depresión. Pasar de perforar agujeros en la cabeza de las personas mediante el acto de trepanación, a impactar a las personas para "curarlas" de su trastorno mental. solo tomó dos milenios. Aunque, el último eventualmente ganaría tracción.

En la década de 1950, los hospitales psiquiátricos comenzaron a incorporar la práctica de terapia de descarga eléctricasin embargo, lo usaron más como una herramienta para la obediencia y el abuso que como una cura para los trastornos mentales. En las prácticas actuales de ECT Los pacientes de la terapia electroconvulsiva son anestesiados para reducir el malestar y se les administran medicamentos relajantes de los músculos para evitar que se rompan los huesos debido a las convulsiones durante las convulsiones. La forma en que se dice que estas convulsiones ayudan a quienes sufren depresión es la siguiente. La TEC aumenta los niveles de serotonina, bloquea las hormonas del estrés y promueve la neurogénesis en el hipocampo. Básicamente, le da al individuo más sustancias químicas / neurotransmisores felices / para sentirse bien, bloquea las sustancias químicas negativas y vuelve a crecer / revitaliza partes de nuestro cerebro que se ocupan de las emociones, solo tomó dos siglos y medio hacerlo bien (Barlow).

Finalmente, publicó información historiográfica sobre trastornos mentales. El Instituto Internacional de Estadística adoptó el primer Clasificación internacional de enfermedades (CIE) en 1893. En 1952, la primera edición de la Manual de diagnóstico y estadístico (DSM-1) se publica en los Estados Unidos. A medida que pasaron los años, ambos han revisado y continúan ampliando sus clasificaciones a través de múltiples ediciones. El ICD-10 es el más actual a nivel mundial, mientras que el DSM-5 se usa principalmente en los Estados Unidos. Estos manuales clasifican cómo se pensaba en los trastornos mentales en el momento de su publicación. A medida que avanzan los manuales, también lo hacen las formas en que las personas perciben las enfermedades mentales.

Los estudios sobre los trastornos mentales en la actualidad, discuten si estos trastornos son innatos o aprendidos, esencialmente utilizando la naturaleza primitiva de estos temas fundando creencias, causalidad "biológica o fisiológica". Una de las áreas más estudiadas en el campo de los trastornos mentales en la actualidad es psicopatía. Los más concentrados son los delincuentes. Con ellos en mente, se han desarrollado programas de tratamiento, así como formas de diagnóstico profesionalmente aceptadas. Esto solo se suma al fuego de la confusión cuando se trata de trastornos mentales, ya que aquellos que han recibido "tratamiento", por psicopatía demostrar más probabilidades de reincidir. Los psicólogos actuales predicen que microchips será desarrollado e instalado en ubicaciones específicas del cerebro en aquellos diagnosticados con psicopatía. Esto les permitiría funcionar "normalmente", pero cambiando el cableado neuronal de estos individuos. Esto entonces pone en duda la especulación moralista o ética de esta práctica hipotética. Todo lo que se indica en este párrafo se puede citar a (Hare).

La investigación ha demostrado a través de la escala de 22 puntos de Robert Hare, que los líderes significativos en la sociedad global retratan rasgos de psicopatía. La puntuación más alta y peor se equipara a 40, mientras que el requisito mínimo para un individuo es una puntuación de 26 para ser diagnosticado como un psicópata. Según un estudio realizado en la Universidad de Oxford por el Dr. Kevin Dutton, “Donald Trump puntuó ligeramente más alto que Adolf Hitler en esta escala, y Hillary Clinton puntuó entre Napoleón Bonaparte y Nero”. Estas desordenes mentales aparentemente, no siempre equivalen a una prerrogativa negativa dependiendo de las estructuras políticas y sociales en las que existan.

Los trastornos mentales a lo largo de la historia, y hasta el presente, continúan siendo investigados y desarrollados de formas muy diferentes, sin embargo, "la historia de la psiquiatría nos enseña a dudar de ella, al enfatizar el carácter infinitamente variable y fluctuante de las entidades psiquiátricas" (Borch-Jacobsen , 19). Es muy parecido al resto de las categorías estudiadas por los historiadores, paradójico y vertiginosamente contradictorio. Nosotros, como futuros historiadores, debemos ser conscientes de estos aspectos para poder Progreso para seguir. “La idea de que las reacciones emocionales ocurren de manera refleja e involuntaria en respuesta a estímulos internos y externos persiste en el presente y continúa haciendo posible y plausible el concepto de trastornos del estado de ánimo”(Jansson, 399).

La historiografía del pensamiento en psicología, a medida que pasa el tiempo, se piensa en los trastornos mentales de muchas formas diferentes. [fuente]

(1) Barlow, Durand, Hofmann. Psicología anormal: un enfoque integrador. 8a ed., Cengage Learning, 2018.

(2) Borch-Jacobsen, Mikkel History of the Human Sciences, vol. 14 (2), mayo de 2001, págs. 19-38. Editor: Sage Publications [artículo de revista], Base de datos: PsycINFO

(3) Jansson, Asa. "Trastornos del estado de ánimo y el cerebro: depresión, melancolía e historiografía de la psiquiatría". Historial médico 55, no. 3 (2011): 393–99. doi: 10.1017 / S0025727300005469.

(4) Pitsios, Theodoros y Vasiliki Zafiri. 2012. "Casos de trepanación en cráneos griegos antiguos". Revista Internacional de Ciencias del Cuidado 5 (3): 239–45. https://search.ebscohost.com/login.aspx?direct=true&db=ccm&AN=104502198&site=eds-live&scope=site.

(5) Spanos, Nicholas P. 1978. "La brujería en las historias de la psiquiatría: un análisis crítico y una conceptualización alternativa". Boletín psicológico 85 (2): 417–39. doi: 10.1037 / 0033-2909.85.2.417.


La trepanación, el proceso de hacer un agujero en el cráneo para acceder al cerebro, es una forma antigua de craneotomía primitiva. Existe una amplia evidencia de las contribuciones hechas a esta práctica por las civilizaciones antiguas en Europa, África y América del Sur, donde los arqueólogos han desenterrado miles de cráneos trepanados que datan del período Neolítico. Se sabe poco sobre la trepanación en China, y se cree comúnmente que los chinos solo usaban la medicina tradicional china y métodos no quirúrgicos para tratar las lesiones cerebrales. Sin embargo, un análisis exhaustivo de la evidencia arqueológica y literaria disponible revela que la trepanación se practicaba ampliamente en toda China hace miles de años. Se ha desenterrado un número significativo de cráneos chinos trepanados que muestran signos de curación y sugieren que los pacientes sobrevivieron después de la cirugía. La trepanación probablemente se realizó por razones terapéuticas y espirituales. Los trabajos médicos e históricos de la literatura china contienen descripciones de procedimientos neuroquirúrgicos primitivos, incluidas historias de cirujanos, como el legendario Hua Tuo, y técnicas quirúrgicas utilizadas para el tratamiento de patologías cerebrales. La falta de traducción de los informes chinos al idioma inglés y la falta de publicaciones sobre este tema en el idioma inglés pueden haber contribuido a la idea errónea de que la antigua China carecía de trepanación. Este artículo resume la evidencia disponible que da fe del desempeño de la cirugía craneal primitiva exitosa en la antigua China.

Declaración de conflicto de intereses: Los autores declaran que el contenido del artículo se redactó en ausencia de cualquier relación comercial o financiera que pudiera interpretarse como un posible conflicto de intereses.


Una breve reflexión sobre la no tan breve historia de la lobotomía

El lento ascenso y la rápida caída de la lobotomía pueden hacernos una pausa para preguntarnos: en el futuro, ¿qué práctica de hoy se mirará con horror?

“Cada médico tiene una naturaleza diferente. Uno cree en el principio: premum non nocere (no hagas daño). El otro dice: Melius anceps remedium quam nullum (mejor un remedio peligroso que nada). Me inclino hacia la segunda categoría ". —Gottlieb Burckhardt, el padre de la psicocirugía (1891) [1]

La psicocirugía, una combinación mal definida de neurocirugía y psiquiatría, ha sido durante mucho tiempo uno de los campos más controvertidos de la medicina. Ha cautivado las mentes tanto del médico como del filósofo, teniendo una historia complicada de incertidumbre médica y división ética. Quizás uno de los términos más familiares dentro del campo de la psicocirugía es lobotomía—Palabra que se ha utilizado ampliamente para describir varios procedimientos como la leucotomía, la topectomía y la neuroinyección de diferentes agentes esclerosantes. [2]

Orígenes de la psicocirugía
Los orígenes de la psicocirugía se remontan a la antigüedad, con pruebas de craneotomías de la Edad de Piedra que se remontan al 5100 a. C. [3] Los hallazgos arqueológicos sugieren que los chamanes prehistóricos podían acceder al cerebro a través de la trepanación, un proceso que implica la perforación o incisión de un agujero en el cráneo con una herramienta quirúrgica con cuchilla. [4] La trepanación ha sido bien documentada a lo largo de la historia temprana hasta la época premoderna, no solo en la literatura médica sino también en ciertas obras de arte visual. [5] Por ejemplo, el pintor renacentista Hieronymus Bosch representa la trepanación psicoquirúrgica en una de sus obras más populares, La extracción de la piedra de la locura (hacia 1494). Claramente, ha habido un interés de larga data en la relación cerebro-conducta y el papel potencial de la psicocirugía en la manipulación de esta compleja conexión.


La extracción de la piedra de la locura por Hieronymus Bosch.
Reproducido con permiso del Museo Nacional del Prado, Mardid.

No fue hasta mediados del siglo XIX que la psicocirugía tomó una forma más familiar, cuando la comunidad científica se interesó en el caso neuropsiquiátrico característico de Phineas Gage, un trabajador ferroviario de 25 años que fue atravesado por una vara de 109 cm de largo y 3 cm de grosor a través de su corteza prefrontal durante una desafortunada explosión en el lugar de trabajo. [6,7] Para sorpresa de las masas, Gage se alejó del incidente sin quejas somáticas notables, pero para quienes lo conocían bien, el Gage quien sobrevivió a la explosión no era el Gage que habían conocido antes. Una vez que fue un ciudadano modelo honrado, se había vuelto fácilmente irritable, desinhibido y extremadamente inestable. [8] El médico de Gage siguió su caso de cerca y publicó la siguiente descripción:

Antes de su lesión, aunque no estaba capacitado en las escuelas, poseía una mente bien equilibrada, y quienes lo conocían lo consideraban un hombre de negocios astuto, inteligente, muy enérgico y persistente en la ejecución de todos sus planes de operación. En este sentido, su mente cambió radicalmente, tan decididamente que sus amigos y conocidos dijeron que "ya no era Gage". [9]

El caso de Phineas Gage impulsó todo un campo de investigación sobre el funcionamiento específico de diferentes partes del cerebro y cómo esto podría estar relacionado con la patología clínica de diversas enfermedades psiquiátricas con presentaciones igualmente desinhibidas.

Inicio de la lobotomía
Inspirado por una comprensión emergente del lóbulo frontal y su fuerza innegable en la configuración del comportamiento humano, el psiquiatra suizo Gottlieb Burckhardt fue el primer médico conocido en traducir las teorías sobre la conexión cerebro-conducta en una práctica quirúrgica dirigida. Trabajando con una pequeña cohorte de pacientes severamente esquizofrénicos que eran refractarios a otras medidas de tratamiento, Burckhardt extrajo segmentos del cerebro de un paciente para tratar la enfermedad psiquiátrica y cambiar al paciente, en sus palabras, de “un excitado a un demente más tranquilo [esquizofrénico] persona ”. [1] En su investigación histórica, que informó en 1891, Burckhardt realizó y documentó múltiples procedimientos quirúrgicos de cerebro abierto en seis pacientes esquizofrénicos durante un lapso de 10 años, con diversos grados de éxito. Sus resultados variaron desde pacientes que lograron "tranquilizar" a los pacientes con el procedimiento (que fue el caso de tres de los seis pacientes) hasta que un paciente falleció por complicaciones posoperatorias.6 Aunque Burckhardt pretendía que la utilidad de su cirugía fuera "como mucho paliativa , ”Su investigación fue duramente rechazada por la comunidad médica por ser muy inquietante y extremadamente ineficaz. Entonces, Burckhardt abandonó su investigación después de la publicación de sus resultados, y la exploración psicoquirúrgica se desvaneció en un segundo plano durante algunas décadas. [10]

A principios de la década de 1930, la psicocirugía experimentó un resurgimiento repentino y sorprendentemente rápido. En Europa, el neurólogo portugués António Egas Moniz y su colega neuroquirúrgico Almeida Lima estaban experimentando con conexiones entre las cortezas frontales y el tálamo, y comenzaron a reintroducir lentamente algunos de los principios de la investigación de Burckhardt. [11] Para perfeccionar aún más la técnica quirúrgica de Burckhardt, el dúo desarrolló un proceso específico más dirigido llamado leucotomía, que consistía en insertar una pequeña varilla quirúrgica con un asa de alambre retráctil (llamado leucotoma) en el cerebro. Luego, el instrumento podría usarse para cavitar áreas de materia blanca, con la intención expresa de alterar la disposición del paciente. [6,11] Con un cuerpo de investigación que estaba muy en su infancia y sin haber producido resultados convincentes para respaldar su nueva técnica, Moniz y Lima comenzaron a promover el controvertido procedimiento en toda Europa con carisma y astucia política. De hecho, fue entonces cuando la lobotomía comenzó a ganar aceptación como tratamiento primario para la enfermedad psiquiátrica, a pesar de que Moniz y Lima mantenían registros deficientes del seguimiento de los pacientes e incluso habían devuelto a algunos pacientes a los asilos posoperatorios, para nunca más ser vistos. [ 11]

A medida que la lobotomía se popularizó en toda Europa, el procedimiento también se presentó a un público médico norteamericano ansioso. El neurólogo Walter Freeman y el neurocirujano James Watts defendieron esta migración, con el objetivo de mejorar los resultados de sus colegas internacionales. [6] El dúo modificó el procedimiento para que no requiriera más que un pequeño orificio de trépano de 1 cm que se podía perforar por encima del arco cigomático para la inserción del leucotoma. Sin duda, esto hizo que el procedimiento fuera mucho más simple y un poco menos invasivo, pero aún así conllevaba los riesgos posoperatorios inherentes de trastornos convulsivos, infecciones e incluso la muerte. [6,12] Además, Freeman finalmente se sintió hipnotizado por el trabajo de un colega italiano. que había desarrollado un enfoque transorbital para el procedimiento que no requería más que un instrumento simple, parecido a un picahielo, que podía perforarse a través del hueso orbital y barrerse a través de la corteza prefrontal. Rápidamente y con entusiasmo adoptó este método a fines de la década de 1930 [13].

El trabajo de Freeman y Watts había simplificado tanto la lobotomía que Freeman comenzó a realizar el procedimiento sin la ayuda de su colega neuroquirúrgico y sin el campo estéril que a menudo se requería en el quirófano. [5] Esto sirvió para distanciar a Watts de la investigación de la pareja, ya que estaba perturbado por la naturaleza cruda del enfoque transorbital y no estaba impresionado con la atención perioperatoria no estéril y deficiente que Freeman estaba brindando. Con el tiempo, el dúo rompió sus vínculos, pero Freeman continuó con su apasionada cruzada para popularizar la lobotomía transorbital en toda América del Norte. [2] Decenas de miles de pacientes psiquiátricos se sometieron al procedimiento, con diversos grados de éxito, hasta que la falta de evidencia que respalde la lobotomía finalmente alcanzó a Freeman y sus colegas psicoquirúrgicos.

Caída de la lobotomía
Si bien el auge de la lobotomía fue lento y secuencial, su desaparición parece haber ocurrido de una vez. En medio de crecientes dudas sobre el procedimiento, Moniz recibió el Premio Nobel de Fisiología o Medicina de 1949 por su trabajo anterior con la controvertida cirugía. En un instante, la comunidad médica mundial echó un ojo crítico a la investigación de Burckhardt, Moniz y Lima, y ​​Freeman y Watt, y así comenzó la caída [6]. Los críticos cuestionaron que la lobotomía no “confirió el mayor beneficio a la humanidad” —un criterio declarado para el Premio Nobel— sino que más bien argumentaron que causó un daño más grave [14]. Rápidamente se formó una impresionante biblioteca de literatura sobre antilobotomía.

No fue hasta que se introdujo la clorpromazina en el mercado psicofarmacéutico que la lobotomía se despopularizó realmente. La clorpromazina fue el primer fármaco psicoterapéutico que se aprobó para tratar la esquizofrenia con efecto positivo y, durante su primer año en el mercado, se administró a aproximadamente 2 millones de pacientes. [15] Con una opción más segura y confiable ahora disponible para toda la comunidad médica, la lobotomía cayó oficialmente en desgracia.

Este artículo ha sido revisado por pares.

Referencias

1. Burckhardt G. 1891. Ueber Rindenexcisionen, als Beitrag zur operativen Therapie der Psychosen [Acerca de la escisión cortical, como contribución al tratamiento quirúrgico de la psicosis]. Allgemeine Zeitschrift für Psychiatrie und psychisch-gerichtliche Medicin [Revista general de psiquiatría y medicina forense mental]. 189147: 463-548. Alemán.

2. Kucharski A. Historia de la lobotomía frontal en los Estados Unidos, 1935-1955. Neurocirugía. 198414: 765-772.

3. Alt KW, Jeunesse C, Buitrago-Téllez CH, et al. Evidencia de la cirugía craneal de la edad de piedra. Naturaleza. 1997387: 360.

4. Rifkinson-Mann S. Cirugía craneal en el antiguo Perú. Neurocirugía. 198823: 411-416.

5. Faria MA. Violencia, enfermedad mental y el cerebro: una breve historia de la psicocirugía: parte 1, desde la trepanación hasta la lobotomía. Surg Neurol Int. 20134: 49.

6. Mashour G, Walker E, Martuza R. Psychosurgery: Past, present, and future. Brain Res Brain Res Rev. 200548:409-419.

7. Ordia JI. Neurologic function seven years after crowbar impalement of the brain. Surg Neurol. 198932:152-155.

8. Damasio H, Grabowski T, Frank R, et al. The return of Phineas Gage: Clues about the brain from the skull of a famous patient. Ciencias. 1994264:1102-1105.

9. Harlow JM. Recovery from the passage of iron bar through the head. Publ Mass Med Soc. 18682:327-347.

10. Joanette Y, Stemmer B, Assal G, et al. From theory to practice: The unconventional contribution of Gottlieb Burckhardt to psychosurgery. Brain Lang. 199345:572-587.

11. Valenstein ES. Great and desperate cures: The rise and decline of psychosurgery and other radical treatments for mental illness. New York: Basic Books 1986.

12. Freeman W, Watts JW. Prefrontal lobotomy in the treatment of mental disorders. South Med J. 193730:23-31.

13. Pressman JD. Sufficient promise: John F. Fulton and the origins of psychosurgery. Bull Hist Med. 198862:1-22.

14. Lindsten J, Ringertz N. The Nobel Prize in Physiology or Medicine, 1901-2000. Nobelprize.org. 26 June 2001. www.nobelprize.org/nobel_prizes/themes/medicine/lindsten-ringertz-rev/.

15. Feldman RP, Goodrich JT. Psychosurgery: A historical review. Neurosurgery. 200148:647-659.

Mr Gallea is a third-year medical student at the University of British Columbia.


Primary Care Procedures: Trephination of Subungual Hematoma

Subungual hematoma is a fairly common condition. The severe pain that results, caused by the buildup of pressure in a closed space, persists for days if the condition is not treated. However, the blood under the nail can be easily removed-and the pain almost completely relieved-by timely nail trephination. Here I describe techniques that have worked well in my practice.

Figure 1 – The subungual hematoma on this patient’s left thumb would be classed as complex, on account of the damage to the cuticle. (Courtesy of Alexander K. C. Leung, MD)

Subungual hematomas may be simple or complex. Complex hematomas are accompanied by a fracture, nail base dislocation, tissue loss, or skin laceration (Figure 1). Simple hematomas are characterized by an intact nail and nail margins with no other associated injury. 1

Although most subungual hematomas that appear simple are not accompanied by fracture, it is usually wise to obtain radiographs to be sure. However, some authorities suggest that radiographs are unnecessary in patients who exhibit no worrisome findings after the hematoma is drained. 2

When a sudden darkening appears beneath a nail following an injury, the diagnosis of subungual hematoma is fairly straightforward. If the patient has no history of significant trauma, consider other conditions that may have a similar appearance, such as subungual melanoma, subungual nevus, and Kaposi sarcoma. 1 PREPARATION FOR DRAINAGE
Nail trephination can be successfully performed up to 36 hours after injury-and possibly even later-because the blood under the nail will not coagulate during this period. 3 An underlying fracture is not considered a contraindication to nail trephination. 3

Before drainage, prepare the nail with povidone-iodine solution or alcohol. If the only procedure to be performed is trephination, local anesthesia is generally not necessary.

Some authorities have recommended removing the nail plate and repairing the nail bed for subungual hematomas that involve more than 50% of the nail. Because nail bed repair is difficult at best, and because the nail itself acts as an anatomical splint, this recommendation seems to add risk and pain with little benefit. Better data support the less invasive approach.1 If the nail base is dislocated, however, as is often the case when a crush injury involves a tuft fracture, I do remove the nail and repair the bed.

DIFFERENT TREPHINATION TECHNIQUES

Figure 2 – An electrocautery unit such as this may be used to drain a subungual hematoma by melting a hole in the nail.

There are a variety of drainage methods. One of the techniques most commonly taught to new practitioners is to employ heat to melt a hole in the nail. A heated paper-clip tip or a portable medical electrocautery unit may be used (Figure 2). 3 Some clinicians feel that trephination accomplished through the use of heat is more painful than other methods. There is also a possibility that the heat will cause the blood to coagulate and thus limit drainage. However, I have not found this to be a problem.

At least 2 medical devices for draining subungual hematomas quickly and painlessly-and without heat-have been described. The first is a medical drill (PathFormer). 4 Although I have no experience with this device, it is reported to be quite effective and painless. The second device, a carbon-dioxide laser, has also been used to drain subungual hematomas without pain. 2 This might be a good choice for a dermatologist or primary care provider who already has one in the office. Despite their advantages, the cost of both these devices would likely be an obstacle.

HOW TO DRAIN A SUBUNGUAL HEMATOMA WITH AN 18-GAUGE NEEDLE
My preferred method for draining a subungual hematoma is to use an 18-gauge needle as a twist drill this method employs easily accessed equipment and is practically painless. After applying a topical antiseptic, such as povidone-iodine solution, position a hypodermic needle with the tip in the center of the hematoma and hold the hub between the index finger and thumb (Figure 3). Then roll the needle back and forth so that it slowly bores into the nail plate. Within less than a minute, blood should start to emerge from the hole. At this point the tip of the needle is within the hematoma and has not touched the sensitive nail bed (Figure 4). Continue drilling until the hole has widened sufficiently or until the first sign of discomfort from the patient (which will be a signal that the needle has touched the nail bed). Up to this point, the procedure is typically painless. The experience of draining 3 or 4 hematomas in this manner provides a good feel for that point just before the nail bed is reached. Stopping there makes for a completely painless procedure.

Figure 3 – To drain a subungual hematoma with an 18-gauge needle, hold the hub between your thumb and index fingers and position the tip in the center of the hematoma. Then roll the needle back and forth so that it slowly bores into the nail plate.

Figure 4 – When draining a subungual hematoma with a needle, try to stop just before the needle reaches the sensitive nail bed.

AFTER-CARE AND FOLLOW-UP

Figure 5 –The longitudinal ridging evident on this patient's fingernail is the result of a prior subungual hematoma with fracture.

After the hematoma has been drained, use a 4 3 4-in gauze pad to wick up as much blood as possible. One source has suggested using a capillary tube for this purpose. 2

Finally, apply a sterile dressing. Consider sending the patient home with a sterile needle to use should dried blood block the hole. Antibiotics may be prescribed but are generally unnecessary even if there is an accompanying fracture.

Be sure to warn the patient that the nail may be lost, although eventually a new one will grow to replace it. Even more important is to warn the patient that there is a 2% to 15% risk of permanent nail deformity as a result of the initial injury to the nail bed (Figure 5). 1

Simple subungual hematomas rarely require further care. Complex hematomas that are sutured or involve fractures of the distal tuft will require monitoring of wound healing, suture removal, and/or referral to an orthopedist.


A brief history of epilepsy and its therapy in the Western Hemisphere

The history of epilepsy and its treatment in the western world dates back at least 4 millennia to the ancient civilization of the middle east. Past and present treatments have been empirical, usually reflecting the prevailing views of epilepsy, be they medical, theological or superstitious. Ancient physicians relied on clinical observation to distinguish between epileptic syndromes and infer their cause. Early pathophysiological theories of epilepsy correctly identified the brain as the site of the problem, but emphasized incorrect causes such as an excess of phlegm in the brain. Treatments consisted of prescribed diets or living conditions, occasional surgery such as bloodletting or skull trephination and medicinal herbs. These treatments, often ineffective, had the intellectual advantage of being based on pathophysiological principles, unlike current, more empirical, therapies. The unfortunate but widely held view of epilepsy as being due to occult or evil influences gained adherents even in the medical world during ancient times, and the later acceptance of Christianity allowed theological interpretations of seizures as well. Magical or religious treatments were more frequently prescribed as a result, practices which persist to this day. In the Renaissance an attempt was made to view epilepsy as a manifestation of physical illness rather than a moral or occult affliction, but it was during the Enlightenment that epilepsy was viewed along more modern lines, helped by advances in anatomy and pathology and the development of chemistry, pharmacy and physiology. The idea that focal irritation may cause seizures came about from clinical and experimental work, and was supported by the successful control of seizures by the (sedative) bromides and barbiturates in the late 19th century. The introduction of phenytoin showed that non-sedative drugs could be effective in controlling seizures as well, and the development of in vivo seizure models widened the scope of pharmaceutical agents tested for their efficacy against epilepsy. Increasing knowledge of the cellular mechanisms of epilepsy will, hopefully, allow the development and introduction of drugs with increasing specificity against seizure activity and the development of epilepsy.


The 19th and 20th Century Treatments

During the late 19th and early 20th centuries, treatments for severe depression generally weren't enough to help patients.

Desperate for relief, many people turned to lobotomies, which are surgeries to destroy the brain's prefrontal lobe. Though reputed to have a "calming" effect, lobotomies often caused personality changes, a loss of decision-making ability, poor judgment, and sometimes even death.

Electroconvulsive therapy (ECT), which is an electrical shock applied to the scalp in order to induce a seizure, was also sometimes used for patients with depression.

In the 1950s and 60s, doctors divided depression into subtypes of "endogenous" and "neurotic" or "reactive." Endogenous depression was thought to result from genetics or some other physical defect, while the neurotic or reactive type of depression was believed to be the result of some outside problems such as a death or loss of a job.

The 1950s were an important decade in the treatment of depression thanks to the fact that doctors noticed that a tuberculosis medication called isoniazid seemed to be helpful in treating depression in some people.   Where depression treatment had previously been focused only on psychotherapy, drug therapies now started to be developed and added to the mix.

In addition, new schools of thought, such as cognitive behavioral and family systems theory emerged as alternatives to psychodynamic theory in depression treatment.

One of the first drugs to emerge for the treatment of depression was known as Tofranil (imipramine), which was then followed by a number of other medications categorized as tricyclic antidepressants (TCAs). Such drugs provided relief for many people with depression but were often accompanied by serious side effects that included weight gain, tiredness, and the potential for overdose.

Other antidepressants later emerged, including Prozac (fluoxetine) in 1987, Zoloft (sertraline) in 1991, and Paxil (paroxetine) in 1992. These medications, known as selective serotonin reuptake inhibitors (SSRIs), target serotonin levels in the brain and usually have fewer side effects than their predecessors.

Newer antidepressant drugs that have emerged in the past couple of decades include atypical antidepressants such as Wellbutrin (bupropion), Trintellix (vortioxetine), and serotonin-norepinephrine reuptake inhibitors (SNRIs).


Trephination Timeline - History

If you read the medical news lately you may have seen a headline title Skeleton May Show Ancient Brain Surgery. This article was about an 1800 year old skeleton found in Veria, Greece. The skeleton was of a woman of about 25 years of age that suffered severe head trauma and underwent cranial surgery, unfortunately evidence shows that she did not survive.

There is an interesting history of skull surgery, known as trepanation, which comes from the Greek word trypanon, meaning auger or borer. Cranial trepanation has caught the interest of surgeons and archeologist since the 1860's, when it was first realized that ancient humans had scraped or cut holes in the skulls of living persons in France and Peru.

Trepanation is serious enough surgical procedure in this day and age, could this procedure have taken place as a routine operation as long ago as 2000 BC? We do have a historical record of thousands of skulls with evidence of this surgery. Sometimes historical records suggest a reality that we find hard to accept.

Maybe the romantic in us wants to believe that our ancestors could accomplish this but logic tells us that they didn’t have the technology or medical understanding to perform this surgery. They must have done it on dying or dead patients, that would be the logical answer. Unfortunately historical evidence exists that proves beyond any doubt that patients not only were alive when they had cranial surgery but survived in most cases, and many endured several of these operations over a lifetime.

In studies of healing patterns after primitive trepanations some assumptions can be made:

If there is no sign of biological activity around the surgical site, then death was almost immediate.

If there is a discrete ring of superficial osteoporosis around the wound then it is likely that the patient has lived 1 to 4 weeks postoperatively.

When the edge of the wound reaches an equilibrium and calcium is deposited where new bone forms radial striations, and eventually the edge consolidates the patient has survived several months postoperatively. (Marino p946) Credit: www.musees-haute-normandie.fr

Why would primitive cultures of France, nearly 4000 years ago, practice trepanation? The suggested reasons for this surgery are numerous but not substantiated. Researchers over the last century and a half have speculated that cranial surgery was done in cases of trauma from battle or accident, cranial infections, headaches, mental disease, and religious rituals. (Marino p944) Rituals involving the opening of the skull were believed to facilitate the exit of evil spirits that caused epilepsy. This seems plausible because in almost every age and culture epileptic seizures were believed to be the work of evil spirits. (Finger p915)

Some of these reasons for trepanation, though logical do not hold up under scrutiny. There is no gender difference in the distribution of the older French skulls, if combat had caused injury we would expect more males to be candidates for this procedure. Also if war were a major cause of head injury there would be more surgeries to the left side of the skull, if they were struck by a right-handed adversary.(Clower p1421)

In the study of trepanation over the last one hundred and fifty years two men stand out Dr. Paul Broca (1824-1880) and Dr.Victor Horsley (1857-1916). Dr. Broca was not the first person to find, examine or collect trepanned skull but he was the first person to understand and explain what he saw. Horsley's interest amounted to little more than a passing fancy, but his theories regarding the origins of the practice of trepanation contributed significantly to our understanding. Unfortunately neither Broca nor Horsley’s theories have withstood the test of time.

The theories of Broca and Horsley remain widely cited in the anthropological and archeological literature. (Finger p911) Scientists still compare and contrast Horsley's empirical-surgical theory of trepanation with the more anthropological-medical approach chosen by Broca, who attempted to connect seizure disorders in children to supernatural events. (Finger p916) "For Broca, the major stumbling block proved to be the lack of solid evidence to prove that young people were routinely chosen for the operation." Without the age factor, his theory is more plausible.

For Horsley, the idea that the openings were above the motor cortex proved problematic. Without this feature, his notion of traumatic injury also seems more reasonable. (Finger p916) It is interesting that Horsley was one of the first researchers to conclude that the "motor cortex" is smaller than he originally thought and probably did not extend back to include the parietal lobe. Horsley's later motor cortex mapping research helped to undermine the very trepanation theory he had proposed.(Finger p915)

Horsley's general thesis, that blows to the skull with or without epilepsy might have been the initial reason trepanation was performed, is more likely. The best empirical support for the skull fracture theory comes not from French anthropological sites, but from skulls found in Peru that he did not examine. (Finger p915) Peruvian skulls have a male-to-female ratio that is approximately 4:1, about half of the skulls have facial area damage, and they have significantly more trepanations on left side. This suggest that Peruvian physicians saw many more head injuries caused by combat among right handed warriors.(Finger p916) Notably missing from the 20th-century scientific literature is evidence that trepanation was performed for religious, magical, or cultural reasons.

Why did these patients survive cranial surgery? In the documented cases of cranial surgery recorded by French anthropologist, that took place over 4,000 years, I have not read of a solid defendable hypothesis. Of the cases documented from Peru until 500 years ago I have some ideas. Survival of surgery is a quality-of-life issue. The citizens of pre-Columbian Peru had a substantially higher quality-of-life than their counterparts in Medieval and Renaissance Europe.

Examination of Peruvian skulls, by today’s physicians, reveals that these cranial surgeries rarely became infected, and most survived. Even more impressive are the skulls exhibiting successful cranio-plasties (plates inserted into the trephination holes) made of silver and gold, which were placed with such skill that the bone healed around them. (Marino p942 this reference has pictures of sculls with gold cranio-plasties that is well worth the trip to a medical library to see) In contrast, during the 18th century, trephination of the cranium in Europe reached a nearly 100% fatality rate.(Marino p945) Comparing the two cultures may give a clue to why the Peruvian patient’s quality-of-life was better and therefor he/she was more likely to survive.

If you are reading this from a North American point-of-view you probably don’t have a preconceived view of life in South America one thousand years ago, this is a good situation. To better understand the relative timelines and pre-Columbian empires a short review is appropriate so as not to confuse the different cultures. Reviewing the map from north to south the Aztecs settled in what is now central Mexico on small islands in Lake Texcoco where they founded the city of Tenochtitlan (circa 1300 ad) that is now Mexico City. They created a cultural and political empire during the 15th century. Looking farther south the Maya controlled southern Mexico from about 50 BC until the Spanish conquest in the 16th century. The Maya empire reached its cultural and political zenith about 550-900 AD. They controlled the area of southern Mexico and Honduras

The Inca empire, which we are interest in, was by far the largest pre-Columbian state, extending from Peru to Chile including western and central South America. This area was developed by the Chavin-Sechin (900 to 200 BC), the Huari-Tiahuanaco (750 BC to AD 1000), and the Moche-Chimfi cultures (200 BC to AD 1400).(Marino p941) During each of these periods the population reached higher levels of culture under paternal monarchs and each of these cultures were based on agricultural socialism. (Marino p942) Historically the Incas came late on the scene. The expansion of the Inca empire was achieved in some part by military conquests. Not all groups were brought into the realm by direct military action, many joined in alliances with the Incas as the result of peaceful overtures from the expanding state. Others joined out of fear that military intervention would result if an invitation to peaceful alliance were rejected. During this time the population detribalized and culture soared. (Marino p942) Quality of life was improving because of "wise and benevolent rulers."

Before Francisco Pizarro’s conquest of the Inca’s, their empire was equivalent in area to France, Belgium, Holland, Italy, and Switzerland combined, measuring approximately 980,000 km2. (Marino p941) At its height the Inca empire had an estimated 12 million people in much of what is now Peru and Ecuador and large parts of Chile, Bolivia, and Argentina. At the beginning of the Renaissance (circa 1500 AD) there were about 73 million people living in Europe. (Manchester p47)

It may be harder for you to understand Europe of 1000 to 1500 AD, you have to abandon your High School and Hollywood version of Medieval Europe and dig deep to develop a realistic world view. With the fall of the Roman Empire social structure and public works infrastructure collapsed as barbarian hordes overran Europe. As Europe emerged from the Dark Ages, life was not good even in the best of times for the average person.

European political institutions evolved over the centuries. Medievalism was born in the decaying ruins after the barbarian tribes had overwhelmed the Roman Empire. A new aristocracy of nomadic tribal leaders eventually became the ruling nobles of Europe. These militant lords, enriched by plunder and conquest were not "paternal" leaders.

Cities in Europe and Peru are not related in structure or function. In Europe people lived in walled towns for protection. In Peru the detribalized population was united, cities were cultural and religious centers, people lived in surrounding countryside. The wall around a town in Europe was its first line of defense. Therefore the land within was very valuable, and not an inch of could be wasted. The twisting streets were extremely narrow and were not paved Doors opened directly onto streets which were filthy, urine and solid waste were simply dumped out windows. Sunlight rarely reached the ground level, because the second story of each building always extended out over the first story, and the third story extended over the second, nearly meeting the building on the other side of the street. (Manchester p48)

The walled town was not typical of Europe though. Between 80 and 90 percent of the population lived in villages of fewer than a hundred people. These villages were fifteen or twenty miles apart surrounded by endless forest. (Manchester p53) Unless a person was a noble or priest his/her mental geography limited their world to what they knew. If war took a man even a short distance form his nameless village, the chances of his returning were slight, and finding his way back alone was virtually impossible. "Each hamlet was inbred, isolated, unaware of the world beyond the most familiar local landmark."(Manchester p21)

Cities in Peru did not have the cramped population and unsanitary conditions of Europe. Nor did they have the pollution-producing industries emerging in Europe. These people were engaged the cooperative efforts of agriculture, mining, herding, and fishing. They had a rural lifestyle in small villages over the high plateaus and coastal lowlands. Their cities appeared to be cultural centers where people would travel to, they lived in the outlying country side. Because even the remote mountain villages were tied to the rest of the empire with an intricate road system of approximately 20,000 km for rapid messenger service to communicate across the empire the pre-Columbian people had a much broader mental geography.

In Europe at the end of the Dark Ages agriculture and transportation of foodstuffs were inefficient, the population was never fed adequately from year to year. Famines, Black Death and recurring pandemics repeatedly thinned the population of Europe at least once a generation after 1347(Manchester p5). The Peruvians demonstrated knowledge of the contagion mechanisms of typhus (which would be understood in Europe only at the beginning of the twentieth century). They fought it with isolation measures and recognized the role of body lice in its spread. It is also evident that they understood the means by which malaria, endemic on the Peruvian coast, was spread. Houses were routinely built in the high and sandy part of the valleys, outside of the access radius of the mosquito vectors. (Marino p942 ) Tuberculosis, whose cause and spread depends essentially on poor social conditions was not endemic in their culture, Europe was not so lucky.

There are numerous reports in historical chronicles that refer to the pharmacological wealth of South America that was used by the pre-Columbian cultures. Many of these drugs could help the patient survive trepadation. The most obvious would be drugs that could be used for anesthesia. This could have been accomplished with drugs known to be used by the Incas such as, coca, datura, o yuca. It is know that alcoholic beverages such as chicha, made of fermented corn, was given to patients, causing a relaxed or sedated state. The next most obvious drug choice would seem to be an antiseptics to prevent infection, such as, Peru balsam, tannin, saponins, and cinnamic acid. These were available and used for embalming the dead, they may have been used in surgery. It would be prudent to have a good drug to control bleeding, this could have been done with herbal extracts of Indean ratania root, pumachuca shrub, and preparations high in tannic acid. (Marino p947) Beyond surgery a drug used then as well as today to control Malaria is quinine. It is well known that they used the bark of the cincona tree as a source of quinine to treat malaria. (Marino p943) The tragedy of the pre-Columbian historical period is the lack of written records (Marino p942) this would have provided remarkable insights into early surgeons and their medical practices.

Clower, William & Finger, Stanley, Discovering Trepanation: the contribution of Paul Broca, Neurosurgery Vol. 49 No. 6, p.1417-1425, December 2001

Finger, stanley & Clower, William T., Victor Horsley on "Trephining in Pre-historic Times," Neurosurgery, vol. 48, Number 4, p. 911- 918, April 2001

Manchester, William, A World Lit Only By Fire, Litle, Brown and Company, Boston, 1993.

Marino, Raul & Gonzales-Portillo, Marco, Preconquest Peruvian Neurosurgeons: A study of Inca and Pre-Columbian Trephination and the Art of Medicine in Ancient Peru, Neurology, vol. 47, No 4, p. 940 – 955, October 2000,


Trephination Timeline - History

A short history of brain research

Despite the fact that the understanding of the human brain is still in its infancy, it appears that brain surgery is one of the oldest of the practiced medical arts. Evidence of “trepanation” can be found in archaeological remains dating back to the Neolithic period – around 10,000 BC. Trepanation (also known as trepanning, trephination, trephining or burr hole) is surgery in which a hole is drilled into the skull to expose the brain.

Cave paintings from the late Stone Age suggest that people believed the practice would cure epileptic seizures, migraines and mental disorders, perhaps in the belief that the operation would allow evil spirits to escape. There is also some evidence that such surgery was undertaken to prevent blood clots forming and to remove bone fragments following a head injury.

The following list details some of the key events and discoveries that have helped shaped our understanding of the brain today:

Hippocrates, the father of modern medical ethics, wrote many texts on brain surgery. Born on the Aegean Island of Cos in 470 BC, Hippocrates was quite familiar with the clinical signs of head injuries and he was the first known person to speculate that the two halves of the brain were capable of independent processing, which he termed "mental duality".

The study of the brain suffered a setback in the seventeenth century when René Descartes, the French philosopher and founding father of modern medicine, was forced to do a deal with the Pope in order to get the bodies he needed for dissection. The Pope agreed on the understanding that Descartes would not have anything to do with the soul, mind or emotions, as those were seen as the realm of the church. Unfortunately, this agreement set the tone for Western science for the next two centuries, dividing the human experience into two distinct and separate spheres that could never overlap. Even today many people are sceptical of illnesses that are defined as being psychosomatic (illnesses where the symptoms are caused by mental processes of the sufferer).

Franz Joseph Gall, a German anatomist, founded the science of phrenology, which holds that a person’s character can be determined by reading the configuration of bumps on the skull.

As peculiar as this theory may seem, it was widely accepted at the time. At the height of the phrenology craze, some people suggested that politicians should be chosen based on the shape of their skulls while others claimed to be able to detect signs of latent delinquency in children based on the bumps on their heads.

A North American railway worker by the name of Phineas Gage suffered damage to the frontal lobe of his brain when it was pierced by a metal rod that shot through his skull during an explosion.

Although Gage survived the accident, he experienced profound mood and behaviour changes. A quiet, industrious worker before the accident, Gage became a surly, aggressive man who could not hold down a job.

This famous case, now found in countless neuroscience textbooks, was an important milestone in the study of the brain’s anatomy because it suggested that important parts of the personality reside in the frontal lobe. These findings indirectly lead to the development of the procedure called lobotomy, which was based on the theory that the removal of portions of the frontal lobe could cure mental derangement and depression.

Charles Darwin published his book “The Expression of the Emotions in Man and Animals” in which he traces the origins of emotional responses and facial expressions in humans and animals, making note of the striking similarities between species. Later, in an unpublished notebook, Darwin proposes the theory that blushing is a clear indication of consciousness. He notes that of all the animals, only humans blush and claims that this is because they are the only ones capable of self-consciously imagining what others are thinking of them.

© MyBrain International Limited. Reservados todos los derechos. No part of this site may be reproduced without prior written permission.


Ver el vídeo: Trepanación (Noviembre 2021).