14 de noviembre de 2015

CURACION DE CONTENIDOS

¿Qué es la curación de contenidos?

En la Sociedad del Conocimiento, ya no es suficiente que las personas tengan acceso lo publicado por unos cuantos, sino que cada persona puede convertirse en productora de sus propios contenidos que, en colaboración con lo que otros también producen, se genera nuevo conocimiento.
Según Juan Arellano, "la curación de contenido se entiende como la capacidad por parte de un sistema o del ser humano de encontrar, organizar, filtrar y dotar de valor, relevancia, significatividad, en definitiva, de utilidad el contenido de un tema específico que procede de diversas fuentes (medios digitales, herramientas de comunicación, redes sociales…)".
El curador es un especialista en encontrar, de entre la vasta cantidad de contenido que inunda internet, la información de calidad y realmente relevante, destinada a una audiencia determinada, y se encarga de ponerla a su disposición. A partir de sus conocimientos y su capacidad de valorar, filtra los contenidos digitales que encuentra, y al realizar la selección de ellos asegura la alta calidad. Como complemento, añade valor a los contenidos al darles un nuevo sentido a partir de su organización o reconstrucción
Los usuarios comenzamos simplemente consultando los contenidos que se nos ofrecían en la Red para después pasar a compartirlos con otros usuarios, más tarde añadir nuestros comentarios y finalmente producir nuestros propios contenidos. El nuevo paso, culminación de ese proceso, sería la curación, el filtrado y selección eficiente de los contenidos.

Modelos de curación de contenidos

Existen cinco modelos de curación de los contenidos:
  1. Agregación: Acto de reunir la información más relevante sobre un tema específico en un mismo lugar.
  2. Destilación: Es una forma de realizar la curación de contenidos en un formato más simple, donde solo son compartidas las ideas más relevantes.
  3. Elevación: Se identifican tendencias en pequeñas porciones de información compartidas online, como por ejemplo lo tweets en Twitter.
  4. Mashup: Unión de contenidos curados para crear un nuevo punto de vista.
  5. Cronología: Reunión de información histórica organizada sobre la base del paso del tiempo para la evolución en la percepción de un determinado tema.
El futuro de la Web Social se verá impulsado por estos curadores de contenido, "content curators" o “intermediarios críticos del conocimiento”, que se encargan de recoger y compartir los mejores contenidos en línea publicando compilaciones de gran valor creados por otras personas.

Herramientas para la curación de contenido

Las herramientas digitales son fundamentales debido a que sus características apoyan el proceso a través de buscadores con alarmas que identifican contenidos nuevos y actualizaciones y permiten difundir los contenidos originales y los reconstruidos. Dentro de las herramientas más populares para la búsqueda se encuentran los diferentes buscadores: youtube, wikipedia, slideshare, pinterest o scoop.it y para difundir y compartir contenidos google+, facebook o twitter.
La herramienta por excelencia es, sin lugar a dudas, Scoop.it, a través de la cual es posible buscar, seleccionar y compartir los mejores posts a través de un espacio web específico y de las redes sociales.

Scoop.it

Scoop.it es una de las herramientas de curación de contenidos por excelencia, creada para reunir información, para mostrarla y compartirla de una nueva forma visualmente atractiva en Internet. La definición del término Inglés “scoop” es “primicia”. Se trata de un sistema que nos permite compartir contenido que encontremos o nos parezca útil en la red. Al igual que en un blog, cada publicación ya sea de video, galería, imagen, sonido o texto se denomina post o entrada. Algunos prefieren llamarlo un híbrido entre un blog y un servicio de curación de contenidos.
La diferencia más importante con respecto a un blog es que el autor no necesita escribir el artículo, en su lugar lo comenta y etiqueta. Esta herramienta ofrece a los usuarios la posibilidad de crear uno o múltiples temas que pueden administrar, personalizar y adaptar a sus intereses según va descubriendo nuevos contenidos. El contenido se extraerá y aparecerá un extracto publicado directamente en el tópico o tema. Por ejemplo, si se trata de un post en un blog, se extraerá una imagen y el resumen o primeras líneas; si es un vídeo, se podrá reproducir directamente desde allí.
Mi tablero en Scoop.it, se llama "Enfermería Informática", tema del que conozco bastante. Si quieres verlo, accede al siguiente enlace:
http://www.scoop.it/t/enfermeria-informatica

12 de noviembre de 2015

¿COMO PREGUNTARLE A INTERNET?

¿Alguna vez has tenido que buscar información en Internet? Seguro que sí. Para resolver alguna cuestión de trabajo, por necesidades académicas o, simplemente, para satisfacer una curiosidad personal; si tienes acceso a la red, seguro que has realizado alguna búsqueda.
Pero ¿estás seguro de haberlo hecho de la manera más adecuada? Buscar información en Internet es una actividad que se puede entrenar. Aprende a preguntarle a Internet para encontrar tu respuesta con la mayor precisión posible.

Palabras clave

Las palabras clave son el tema o motivo central de aquello que deseamos saber.  Son importantes porque son las frases o términos de búsqueda con las que se accede a un sitio desde un buscador, o las que relacionan el contenido de un artículo o página web con el tema que nos interesa.
Existen tres tipos de palabras clave:
  • Palabras clave de campo temático: Son los nombres de las disciplinas y los términos imprescindibles que no pueden dejar de estar mencionadas en un documento que habla del tema de nuestra pregunta.
  • Palabras clave de problema específico: Son frases específicas o expresiones claves, segmentos de texto que deben estar incluidos en el tema que queremos rescatar. Es aconsejable incluir expresiones “en uso”, dichas en el lenguaje que utilizamos habitualmente.
  • Palabras clave de referencias autoriales: Son los nombres de autores que se encuentran directamente relacionados con el tema a buscar.

Ejemplo de búsqueda

Vamos a realizar una pregunta:

¿Cuales son las nuevas tecnologías que más se usan en Enfermería?

Google Académico nos permite buscar de una manera sencilla y en diversas fuentes de la red, bibliografía especializada en un campo de investigación, documentos académicos, resúmenes, citas, etc. Empezaremos haciendo una búsqueda por palabras clave de campo temático, separadas estas por un espacio:

tecnología uso enfermería


Y estas palabras nos dan estos resultados


Ahora refinamos un poco más la búsqueda con las palabras clave de problema específico, para lo cual, usaremos la expresión

"nuevas tecnologías"



Y por último, podemos buscar entre los ya encontrados, los textos de algún autor que sea experto en el tema, mediante palabras clave de referencias autoriales. Añadimos también un intervalos de fechas, el de los últimos cinco años, para que los artículos que nos aparezcan sean lo más actuales posible:

Galimany Masclans
2010-2015



Nos ha dado al final 5 resultados que cumplen los criterios de búsqueda. 
Espero que os haya resultado interesante








3 de noviembre de 2015

WEB SUPERFICIAL Y WEB PROFUNDA

Con los motores de búsqueda tradicionales sólo podemos acceder a una pequeña parte de lo que existe en la red, lo que se ha comenzado a llamar la web superficial o visible. Pero existe una gran parte de información, un amplísimo banco de datos y artículos que están ubicados en catálogos, revistas digitales, blogs, entradas a diccionarios y contenido de sitios que demandan un registro (aunque sea gratuito), entre otros tipos de contenido que no aparecen entre los resultados de una búsqueda convencional.

La Web superficial


Es la Web visible, lo que se conoce como la www. Está formada por páginas públicamente accesibles, lo que aproximadamente tan sólo es un 17% de toda la información existente en la red.
Comprende todos aquellos sitios cuya información puede ser indexada por los robots de los buscadores convencionales y recuperada casi en su totalidad mediante una consulta a sus formularios de búsqueda.

Estos sitios se caracterizan por:
  • Su información no está contenida en bases de datos.
  • Son de libre acceso (no hay que registrarse para acceder).
  • Generalmente está formada por páginas Web estáticas (páginas o archivos con una URL fija y accesibles desde otro enlace.).

La Web profunda

Comprende toda la información disponible en Internet que no es recuperada a través de los buscadores convencionales. Generalmente es información almacenada y accesible mediante bases de datos. Si bien el 90% de estas bases de datos están públicamente disponibles en Internet, los robots de los buscadores solamente pueden indicar su página de entrada (homepage). La información almacenada es por consiguiente "invisible" a estos.
Para poder acceder a la información disponible en estas bases de datos, hay que hacer consultas a través de páginas dinámicas (ASP, PHP...) es decir páginas que no tienen una URL fija y que se construyen en el mismo instante (temporales) desapareciendo una vez cerrada la consulta.
PARA QUE LO SEPAS:  Por cada millón de páginas visibles hay otros 500 o 550 millones ocultas. Contiene alrededor de unos 100.000 sitios y el 90% suele ofertar su información pública y gratuitamente. La información pública y gratuita del Web invisible es actualmente de 400 a 550 veces mayor que el Web visible.
Otras causas de la invisibilidad de sus páginas son:
  • Sus contenidos son de acceso limitado, sólo para usuarios registrados, por lo que está limitado el acceso a sus contenidos.
  • Las páginas sólo son accesibles a través de enlaces producidos por Javascript o Flash, que requieren un tratamiento especial.
  • Los archivos no son textuales.
  • Sus páginas no tiene vínculos entrantes desde otras páginas, sus contenidos no están enlazados.
Se pueden distinguir cuatro tipos de contenidos invisibles en la Web:

La Web opaca
Se compone de archivos que no están incluidos en los motores de búsqueda por alguna de estas razones:
  • Extensión de la indización: No todas las páginas de un sitio están indexadas en los buscadores.
  • Frecuencia de la indización: A diario se agregan y modifican muchas páginas y los buscadores indexan de forma periódica, por lo que no pueden indexar todas las existentes.
  • Limitación del Número máximo de resultados visibles: Los buscadores normalmente muestran entre 200 y 1000 documentos.
  • URL’s desconectadas: Los buscadores presentan los resultados en base a la cantidad de veces que aparecen referenciados en otros. Si un documento no tiene un link a él desde otro, será imposible encontrarlo.

La Web privada

Se compone de archivos que no están incluidos en los motores de búsqueda por alguna de estas razones:
  • Las páginas están protegidas por contraseñas (passwords).
  • Contienen un archivo “robots.txt” para evitar ser indizadas.
  • Contienen un campo “noindex” para evitar que el buscador indice la parte correspondiente al cuerpo de la página.
PARA QUE LO SEPAS: Este segmento de la web no representa una gran pérdida en términos de valor de la información que contiene, ya que se trata, en general, de documentos excluidos deliberadamente por su falta de utilidad.

La Web propietaria

Incluye aquellas páginas en las que es necesario registrarse para tener acceso al contenido, ya sea de forma gratuita o paga. Se dice que al menos 95% de la Web profunda contiene información de acceso público y gratuito.

La Web realmente invisible

Se compone de páginas que no pueden ser indizadas por limitaciones técnicas de los buscadores, como las siguientes:
  • Páginas web que incluyen formatos como PDF, PostScript, Flash, Shockwave, programas ejecutables y archivos comprimidos.
  • Páginas generadas dinámicamente, es decir, que se generan a partir de datos que introduce el usuario.
  • Información almacenada en bases de datos relacionales y no puede ser extraída a menos que se realice una petición específica.
PARA QUE SEPAS MAS:
  • Algunos buscadores recuperan archivos PDF y páginas con imágenes, aunque de forma limitada.
  • Es relativamente sencillo llegar hasta la “puerta” de las bases de datos con contenido importante.
  • Existen ya motores avanzados capaces de realizar búsquedas directas simultáneas en varias bases de datos a la vez; y aunque la mayoría requieren de pago, también ofrecen versiones gratuitas.
  • El contenido que se genera en tiempo real pierde validez con mucha velocidad, salvo para análisis históricos.
  • El contenido que se genera dinámicamente interesa únicamente a ciertos usuarios con características específicas.

¿Qué documentos forman parte de la web profunda?

  • Bibliotecas: Digitales, catálogos de bibliotecas, bases de datos d bibliotecas, bases de datos bibliográficas.
  • Bases de datos y directorios de bases de datos.
  • Revistas electrónicas en las que es necesario registro previo y las que sólo se puede recuperar su información mediante búsquedas en su base de datos. Archivos de documentos.
  • Documentos de formatos no indexables: pdf, ppt, doc, mp3 wav, avi, mpeg...
  • Catálogos de editoriales o directorios de publicaciones periódicas.
  • Archivos de instituciones y organismos de gobierno.
  • Repositorios de artículos de revistas, tesis y literatura gris.
  • Guías de sitios, revistas electrónicas, obras de referencia: enciclopedias, diccionarios, tesauros, etc.
  • Foros, blogs, diarios de noticias.
  • Páginas blancas/amarillas, directorios.
  • Organismos públicos de gobierno, ONGs, etc, que en sus sitios web disponen de consultas a sus bases de datos.

Recursos de búsqueda en la Web profunda por tipo de recurso:

Buscadores
Scirus, WebSearch

Metabuscadores
iBoogie, Fazzle, Ixquick, Search.Com

Directorios de buscadores
AlphaSearch

Directorios de bibliotecas
Libdex, LibraryPlanet, UNESCO Libraries Portal

Directorios
CompletePlanet, Direct Search, HotSheet, IncyWincy, InternetInvisible, Librarians Index, Master Link List On the Internet, RefDesk.com, Webfile.com, Where to Do Research

Directorios anotados
AcademicInfo, Resource Discovery Network

Directorios de bases de datos
WebData.com

Guías
About, LibrarySpot

Motores avanzados
Deep Query Manager (sustituye a Lexibot), FeedPoint, Search4science, Strategic Finder