¿Los Dientes Son Parte De La Piel?
¿Los dientes son parte de la piel?
Los dientes son órganos muy especializados que se encuentran en los vertebrados (solo en algunos), tienen por función ayudar a masticar,desgarrar y separar la comida. Al principio se creía que los dientes eran extensiones óseas, con el tiempo se fueron descubriendo los componentes que conforman los dientes, esto puso claro que los dientesson órganos independientes de los huesos. Algo que no es claro es si los dientes son o no parte de la piel, como se sabe la piel tiene muchos accesorios como las uñas entre otros, entonces surge laduda de si los dientes podrían formar parte de la piel. La idea de que los dientes son parte de la piel se fundamenta en que los dentículos (tejido de los dientes) son muy similares a tejidos presentesen algunos peces condrictios. Claro también existen otras teorías, con el tiempo los dientes han sido ampliamente estudiados, existen muchos fósiles de dientes que se analizado. Además el avance de laciencia nos ha permitido conocer el origen de los dientes reflejado en los genes que codifican para ellos. Primero mostraremos de manera sencilla dos teorías de cómo surgieron los dientes y al finalharemos incapie en lo que los resultados recientes apuntan.
Conforme al origen de los dientes existen dos teorías principales .Una de ellas explica como los dientes fueron de “Afuera-hacia-dentro”,basándose en algunos peces, como por ejemplo el tiburón en donde vemos los dentículos que tiene en su piel son estructuras histológicamente similares a los dientes, entonces esta teoría supone que losdientes fueron extensiones de la piel y que se unieron con la mandíbula para crear la lamina dental donde se posicionarían los futuros dientes. Mientras la otra teoría conviene lo opuesto, que losdientes fueron de “Adentro-hacia-afuera”, se encuentran peces con dientes en la cavidad orofaringea y los cuales no presentan mandíbula no dentículos, esto supone que los dientes fueron creados del...
Regístrate para leer el documento completo.