viernes, 30 de marzo de 2012

V.S.S.T.’2012; VEILLE STRATEGIQUE SCIENTIFIQUE & TECHNOLOGIQUE, SYSTÈMES D’INFORMATION ELABORÉE, BIBLIOMÉTRIE, LINGUISTIQUE, INTELLIGENCE ÉCONOMIQUE.



Le séminaire VSST’2012 est organisé pour présenter des travaux de recherche et de développement industriel innovants dans le domaine des systèmes de Veille Stratégique Scientifique et Technologique. 

Les données scientifiques et techniques, qu’elles soient textuelles ou factuelles, formelles ou informelles, constituent des mines d’informations stratégiques aussi bien pour les décideurs (intelligence économique, veille concurrentielle) que pour les chercheurs et les ingénieurs (veille scientifique et technologique). Cependant, devant la masse croissante d’information, les organismes ont besoin de systèmes d’aide à l’analyse de plus en plus performants. Ces systèmes doivent offrir des possibilités d’exploration très fine et de représentation synthétique de l’information recueillie et des nouvelles connaissances déduites. En amont, ils doivent assurer la collecte, la sélection et le filtrage de l’information électronique disponible dans des bases spécialisées internes, externes et sur Internet, ainsi que la prise en compte des données informelles collectées, sur le terrain, par les différents acteurs de la veille. En aval, pour la restitution des résultats, ils doivent privilégier l’ergonomie dans les fonctions de présentation, de navigation et de synthèse. 

Après Lille en 2006 et Nancy 2009, dans cette troisième édition du séminaire VSST, un intérêt tout particulier sera accordé aux méthodes et applications qui garantissent une exploitation efficace des grandes masses de documents et qui sont porteuses d’une réelle plus-value informationnelle : collecte et extraction d’informations pertinentes, exploration, analyse et synthèse, interactivité dans les systèmes de découverte. Cette année, VSST se déroule selon les schémas complémentaires suivants :

 4 conférences invitées
 6 sessions plénières sont consacrées aux derniers travaux en matière de veille et regroupent 11 communications de 30’ et 8 communications de 20’.
 2 tables rondes sont organisées en fin de journée sur les sujets abordés dans les sessions ainsi que sur des problèmes d’actualité,
 4 ateliers de 1h40 sont proposés pour aider certains participants à aborder les concepts fondamentaux ou les méthodes de VSST, ils seront illustrés par 16 interventions de 20’ suivies d’une discussion.
 1 session «posters», le vendredi matin, permettra aux orateurs concernés de toucher un large public, avec la possibilité de développer leur argumentation pendant les pauses qui suivront, 
 1 tutorial de 3h sur les «Wikis sémantiques», le vendredi après-midi, permettra aux participants de se familiariser avec l’usage de ce nouveau média. 
 des démonstrations et des animations, tout au long du séminaire.


Diez años construyendo una web semántica

Tomado de Diez años construyendo una web semántica, (www.fgcsic.es/lychnos/).

En mayo de 2001 la revista Scientific American publicaba un artículo en el que se proponía una nueva forma de organizar el contenido en la Red que desencadenaría una avalancha de posibilidades y, en consecuencia, revolucionaría Internet. El primer autor del artículo era Tim Berners-Lee. Todos estamos bastante familiarizados con la Web y sobre cómo operar con ella. Abrimos un navegador (por ejemplo, Explorer, Firefox o Safari) e introducimos la dirección de la página que deseamos consultar o bien pedimos a un buscador (por ejemplo Google o Yahoo!) que nos determine las ubicaciones de documentos en la Web que contengan una combinación de palabras deseada y que nos las ordene por importancia.­ 

A partir de ahí podemos ir saltando de una página web a otra a través de hipervínculos –estas palabras, frases, imágenes o iconos que generan la descarga automática de otra página web cuando pinchamos sobre ellos–. Esto es lo que se conoce como la web de primera generación o Web 1.0: personas conLa visión de una web semántica, tal y como la plantearon Berners-Lee y sus colaboradores hace diez años, incluye también la posibilidad de razonar y sacar conclusiones lógicas de forma automatizada a partir de los datos publicados en la Webconocimiento especializado de diseño y composición de páginas web crean los documentos con su contenido y definen los hipervínculos que los entrelazan; los usuarios no expertos son fundamentalmente consumidores de información. Leen noticias, consultan diccionarios, visualizan imágenes o vídeos o compran productos.

En la web de segunda generación, la Web 2.0, los usuarios no expertos, además de consumidores, pueden ser también generadores de contenidos y proveedores de servicios. Mediante blogs, por ejemplo, se pueden escribir y compartir reflexiones periódicas, y los lectores pueden añadir comentarios o nuevos enlaces relevantes; conWikipedia, millones de personas construyen una gran enciclopedia multilingüe que constantemente es actualizada y ampliada por los propios usuarios; a través de redes entre pares, como originalmente Napster, BitTorrent o eMule, se comparten películas y ficheros de música; y últimamente, con la irrupción de las redes sociales —Facebook, Tuenti o Twitter—, la Web se ha convertido en un espacio global de participación e interacción entre usuarios.

La web semántica viene a ser la tercera generación de la Web, la Web 3.0, una extensión de la Web actual en la que los contenidos están organizados de forma que no solo los humanos sino también las computadoras sean capaces de procesar su significado —por eso lo de semántica— posibilitando así una mejor cooperación entre computadoras y humanos. La nomenclatura Web 1.0, 2.0 y 3.0 es seguramente artificiosa, ya que de hecho no se trata de nuevas versiones de la Web, sino de la misma web de siempre pero con niveles añadidos de funcionalidad. 


Tiempo para nuevos modelos de comunicación y difusión de la ciencia

Tomado de Tiempo para nuevos modelos de comunicación y difusión de la ciencia, (www.fgcsic.es/lychnos/).

Acceso abierto en España

El acceso abierto se ha concretado en la adhesión de muchas universidades e instituciones científicas a la Declaración de Berlín, la creación de un número significativo de repositorios institucionales, entre los que destacan los de la Universidad Autónoma de Barcelona, el de la Universidad Politécnica de Cataluña y el del CSIC, según el Ranking Webometrics de Repositorios, y la creación del recolector de la producción española disponible en los repositorios existentes (RECOLECTA). Algunas universidades tienen mandatos institucionales y otras han empezado a considerar la oportunidad de financiar, aunque aún de forma muy tibia, los costes de publicación en acceso abierto.

Sin embargo, se observa, con respecto a otras instituciones científicas europeas (UK Research Councils, Netherlands Organisation for Scientific Research, CNRS, Max Planck Society), una falta de compromiso a nivel de instituciones y país más firme y decidida. Seguramente, la nueva ley de la Ciencia y las directivas europeas, y las que están por llegar, contribuirán a reforzar la estrategia nacional.


Un nuevo escenario, ¿nuevas reglas de juego?

El acceso abierto está transformando la realidad cotidiana de las instituciones afectando a cuestiones tan relevantes, como los modelos de negociación de recursos de información, los sistemas de evaluación y la gestión de los derechos de explotación de resultados.


Nuevos modelos de negociación de información científica

Existe un buen número de revistas científicas de calidad en abierto o sujetas al acceso abierto híbrido. Pero la publicación gratuita de contenidos científicos en las mismas tiene siempre un coste, que recae sobre la institución de los autores que publican, y no sobre los lectores. Esto está suponiendo una alteración del modelo tradicional de contratación de recursos de información basado en el paradigma «la biblioteca-institución paga» para su consulta, al nuevo paradigma, «el autor-institución paga» para su difusión en abierto. Por ello, la negociación de cuotas institucionales de acceso abierto ha pasado a formar parte de los contratos con editores, como una cláusula adicional, que fija cómo hacer frente al pago de las publicaciones que los autores de una determinada institución publican bajo esta modalidad. Las instituciones más comprometidas con el acceso abierto ya están considerando que los presupuestos de investigación deben contemplar partidas para costear la publicación de la ciencia que producen en abierto.

Se están introduciendo también cambios en los modelos de licencia editorial: se trata de la llamada «cláusula verde» por la que se exige a los editores el depósito en el repositorio institucional de los borradores revisados de los artículos de los autores institucionales publicados en sus títulos.


Nuevos modelos de evaluación científica

El acceso abierto ha entrado en el debate sobre la vigencia del modelo de evaluación científica sustentado casi en exclusiva en el Journal Impact Factor (JIF). Surgen voces críticas sobre la adecuación del JIF para evaluar la productividad y excelencia de los investigadores, a lo que se unen críticas a la profusión de publicaciones científicas, resultado del modelo de evaluación imperante y de la validez del peer review actual. El Comité de Ciencia y Tecnología en el Reino Unido ha abordado ambas cuestiones, abogando por sistemas de revisión por pares más acordes con la realidad, y cita como posible modelo alternativo el de PLOS One, subrayando además la conveniencia de que los datos puros de carácter científico, salvo excepciones, sean accesibles públicamente.

Otros criterios de evaluación han ido abriéndose paso, como el Journal Usage Factor, o criterios cualitativos, como el impacto socioeconómico de los resultados de la investigación y la verdadera transferencia de conocimiento, que permite acceder a tales resultados en su totalidad sin tener que pagar por ello una segunda vez.

Más y más instituciones científicas y universidades, especialmente en el ámbito anglosajón, están diseñando nuevos modelos de evaluación y financiación de proyectos científicos, enriqueciendo los criterios y los niveles de impacto en consideración. Entre los nuevos criterios aparece la exigencia de que la producción en evaluación se haya difundido en abierto o que el repositorio institucional sea el canal de envío de los trabajos para ser evaluados. Un ejemplo exitoso del nuevo enfoque es la Universidad de Liège.

Para terminar, destacamos nuevos planteamientos para estimar el rendimiento económico de la producción y comunicación científica; estudios como Economic implications of alternative scholarly publishing models (2009) calculan los costes, beneficios y oportunidades que ofrecería la transición hacia un modelo de acceso alternativo.

La Internet del futuro y la I + D

Tomado de  La Internet del futuro y la I + D (www.fgcsic.es/lychnos/)

El entorno de las redes académicas para la investigación y el aprendizaje va a experimentar un cambio profundo en los próximos años. La introducción de las nuevas tecnologías de la Internet del futuro va a producir cambios en la naturaleza del proceso científico y en la forma de entender el aprendizaje.

Aunque no es posible conocer en detalle como se van a concretar esos cambios y no es descartable que aparezcan otras tecnologías. Ciertas áreas, como las relacionadas con los dispositivos móviles, los sensores o las redes de alta capacidad, van a ser sin duda claves en la configuración del escenario que se perfila para la próxima década.

Los primeros demandantes de esas nuevas tecnologías son las grandes instituciones y proyectos científicos, como CERN, EGI, PRACE o ITER, que despliegan poderosos instrumentos científicos sobre los que trabajan miles de investigadores distribuidos por todo el mundo. Esto ya exige potentes redes de comunicaciones para mover, almacenar y procesar enormes volúmenes de datos.

En algún caso la Red va incluso a formar parte del instrumento científico, como en el proyecto eVLBI para la observación de objetos celestes sincronizando gran número de radiotelescopios ubicados en distintas partes de la Tierra con un centro que se encuentra en Holanda (JIVE). En este proyecto, la red de datos es un elemento del instrumento virtual formado por la red de telescopios.

La Internet en general y las redes académicas en particular han evolucionado desde un puro medio de transporte de datos a un entorno de comunidades globales que comparten recursos y objetivos.

La Internet del futuro va a permitir introducir nuevas formas de colaboración, va a ofrecer muchas más posibilidades a los investigadores, que van a poder disponer de más medios y más datos para sus investigaciones y van a tener mucha más facilidad para compartirlos con sus colegas en cualquier parte del mundo. Las oportunidades que se ofrecen para el futuro son inmensas y en muchos aspectos difíciles de imaginar en estos momentos.

domingo, 25 de marzo de 2012

Las 10 mejores plataformas online para crear tu propio blog gratis


Tomado de http://wwwhatsnew.com/2012/03/24/las-10-mejores-plataformas-online-para-crear-tu-propio-blog-gratis/


Seguro que muchos se habrán preguntado sobre la viabilidad de crear y mantener su propio blog en una red cada vez dominada por las grandes redes sociales. Sin embargo, me atrevo a decir que los blogs están más vivos que nunca y que Facebook, Twitter, Google+ y las demás, lo único que han hecho es potenciarlos: llevar el contenido a mucha más gente, conseguir más específicos lectores, establecer relaciones con otros bloggers de una manera más sencilla, obtener más y mejores comentarios, etc.
Lo mejor de todo esto es que lo único necesario para crear un blog es una idea  y las ganas de ponerla en práctica, pues respecto a gestión del contenido y almacenamiento las opciones gratuitas abundan. Como ejemplo los siguientes 10 ítems, 10 grandes plataformas online para armar un espacio de calidad literalmente en segundos.
Continúa leyendo aquí

miércoles, 14 de marzo de 2012

Vídeo-captura de pantalla que muestra el funcionamiento del sistema de conocimiento Redes 2005


Vídeo-captura de pantalla con Jing que muestra el funcionamiento del sistema de conocimiento Redes 2005.

Unable to display content. Adobe Flash is required.

jueves, 8 de marzo de 2012

Tu dominio .es

http://www.unblogenred.es/refuerza-tu-imagen-online-por-dominios-es/
El número de blogs y páginas personales en Internet es cada día mayor. Sin embargo,  no todos disponen de un dominio propio, si no que recurren a  subdominios ofrecidos por plataformas gratuitas de alojamiento web. Por ello el usuario de éstas, debe de ser consciente que su imagen online queda estrechamente ligada a la imagen de estas empresas.
Si habitualmente escribes en tu blog e interactúas con tus lectores,  ello te permite hablar con personas que compartan tus inquietudes, te genera contactos e incluso te posiciona profesionalmente. Llegados a este punto, es el momento de que  te hagas con tu propio nombre de dominio .es y evalúes tener un serviciohosting adaptado a tus necesidades.
A cambio recibirás un soporte técnico personalizado, una mayor credibilidad en la red, te permitirá profesionalizar tu espacio así como tu imagen de cara a tus lectores. Reforzarás  la credibilidad de tus palabras y opiniones. Tu imagen online será más directa y potente.
Al ser dueño de tu propio espacio en Internet podrás moldear la web a tu gusto y trasmitir la imagen deseada, ya que ahora no estará en manos de terceros. Tendrás la posibilidad de disponer de un email personalizado. Facilitarás el aprendizaje del nombre de tu dominio y, por ende, el tráfico a tu web.
En definitiva tendrás control sobre tu imagen online para fortalecer la credibilidad dentro de la comunidad internauta.
Así que no lo dudes y hazte con tu dominio .es aquí.
Este artículo ha sido elaborado por el equipo de Dominios .es



miércoles, 7 de marzo de 2012

INTECO, Instituto Nacional de Tecnologías de la Comunicación


Útiles Gratuitos

Esta sección ofrece a los usuarios una selección de servicios y herramientas relacionadas con la seguridad de la información. Dichas herramientas deben aportar valor, cubrir diversos aspectos y ámbitos de seguridad, a ser posible que sean multiplataforma y que además sean gratuitas durante al menos un año.
Las herramientas estarán clasificadas según tres criterios:
  • Funcionalidad. Se describe mediante etiquetas.
  • Sistema Operativo. Dónde puede utilizarse.
  • Público objetivo. Tipo de usuario al que está orientada principalmente.
A medida que se vayan seleccionando nuevos criterios se hará más precisa la selección de las herramientas y servicios ya que algunas cubren aspectos de seguridad que actualmente no se encuentran reflejados en las etiquetas existentes.