martes, 22 de mayo de 2012
La méthode du centroïde du réseau tecno-scientifique et le paramètre de la centralité des noeuds: application en veille scientifique
miércoles, 16 de mayo de 2012
Formación on-line Sciverse Scopus
En el marco de los servicios de la Licencia Nacional de Sciverse Scopus, Fecyt junto con Elsevier pone a disposición de la comunidad científica e investigadora, un módulo de formación online. El objetivo de este modulo es ofrecer un conjunto de seminarios en tiempo real que aporten información paso a paso al investigador, sobre el uso de la base de datos. Este tipo de seminarios va a ir acompañado de:
- Contenido de curso.
- Un material de apoyo en formato power point.
Formación 2012
2º Ciclo formación online - Sciverse Scopus
- 21/05/12 - 11:00 a 12:00 - Básico - inscripción
- 21/05/12 - 16:00 a 17:00 - Avanzado - inscripción
- 22/05/12 - 11:00 a 12:00 - Avanzado - inscripción
- 22/05/12 - 16:00 a 17:00 - Básico s - inscripción
- 23/05/12 - 11:00 a 12:00 - Básico - inscripción
- 23/05/12 - 13:00 a 14:00 - Fecyt + Admintool (SOLO ADMINISTRADORES) - inscripción
- 23/05/12 - 16:00 a 17:00 - Avanzado - inscripción
- 24/05/12 - 11:00 a 12:00 - Avanzado - inscripción
- 24/05/12 - 16:00 a 17:00 - Básico - inscripción
- 25/05/12 - 11:00 a 12:00 - Básico - inscripción
- 25/05/12 - 13:00 a 14:00 - Fecyt + Admintool (SOLO ADMINISTRADORES) - inscripción
- 25/05/12 - 16:00 a 17:00 - Avanzado - inscripción
miércoles, 9 de mayo de 2012
I Congreso Nacional Multidisciplinar de Jóvenes Investigadores
Con este primer artículo inicial, se inaugura la página web del I Congreso Nacional Multidisciplinar de Jóvenes Investigadores que se va a celebrar en la Universidad de Granada los días 4 y 5 de octubre de 2012. Está organizado por la Asociación Nacional de Estudiantes e Investigadores SIGLO XXI, la Asociación de Investigadores Extranjeros (AINVEX) y el grupo de investigación Techné, Ingeniería del Conocimiento y del Producto.
La financiación corre a cargo del Vicerrectorado de Estudiantes de la Universidad de Granada, y se esperan nuevos espónsores. Colaboran la Facultad de Ciencias de la Universidad de Granada, la Fundación Andaluza para la Divulgación de la Innovación y el Conocimiento, la Delegación General de Estudiantes de la Universidad de Granada, y la Delegación de Estudiantes de Ciencias.
Desde estas páginas y en breves días se irá aportando información sobre el congreso, convocatorias para presentacion de comunicaciones, inscripciones, etcétera.
Desde estas páginas y en breves días se irá aportando información sobre el congreso, convocatorias para presentacion de comunicaciones, inscripciones, etcétera.
Por lo pronto, ya está disponible el póster y os hacemos una primera invitación a participar..
Saludos a todos.
miércoles, 2 de mayo de 2012
DIGIBUG: Repositorio Institucional de la Universidad de Granada
DIGIBUG tiene la finalidad de recoger, recopilar y organizar los documentos digitales de carácter científico, docente e institucional producidos por la Universidad de Granada, para el apoyo a la investigación, docencia y aprendizaje.
Lo formarán las siguientes comunidades: Investigación, Revistas, Fondo Antiguo, Documentos Institucionales. Todos los documentos de este Repositorio se encuentran en acceso abierto y a texto completo.
| Título : | Análisis estratégico de la investigación sobre áreas protegidas en España: ingeniería y cartografía del conocimiento |
| Autoría : | Pino Díaz, José |
| Dirección: | Jiménez-Contreras, Evaristo Ruiz Baños, Rosario Bailón Moreno, Rafael |
| Departamento: | Universidad de Granada. Departamento de Biblioteconomía y Documentación |
| Fecha de publicación: | 2012 |
| Fecha de creación: | 2011 |
| Patrocinador: | Tesis Univ. Granada. Departamento de Biblioteconomía y Documentación. Leída el 27 de junio de 2011 |
| Editorial : | Granada: Universidad de Granada |
| Palabras clave: | Investigación Conocimiento |
| Código clasificación : | 001.891 (460) 3399 |
| URI: | http://hdl.handle.net/10481/19854 |
| ISBN : | 9788469466759 |
| Derechos : | Creative Commons Attribution-NonCommercial-NoDerivs 3.0 License |
| Otros identificadores : | D.L.: GR 771-2012 |
| Aparece en las colecciones: | Tesis |
Ficheros en este ítem:
|
viernes, 20 de abril de 2012
martes, 17 de abril de 2012
El Instituto de Ingeniería del Conocimiento desarrolla una innovadora herramienta de marketing basada en el análisis de las redes de relaciones sociales
Tomada de: http://www.uam.es/ss/Satellite/es/1242649910548/1242662549435/noticia/noticia/El_Instituto_de_Ingenieria_del_Conocimiento_desarrolla_una_innovadora_herramienta_de_marketing_basad.htm
El Instituto de Ingeniería del Conocimiento (IIC) es un centro de I+D+i asociado a la Universidad Autónoma de Madrid que se especializa en extraer valor de datos obtenidos de las tecnologías de la información. A partir de esto desarrolla herramientas que ayudan a las empresas a mejorar su productividad. Ejemplo de estas herramientas son los “modelos para la predicción de la adopción de innovaciones”, los cuales permiten a las empresas calcular la probabilidad con la que sus productos o servicios serán adquiridos. Recientemente, el IIC ha desarrollado uno de estos modelos que, al incluir análisis de redes de relaciones sociales, constituye un novedoso y prometedor avance en materia de marketing.
El modelo surgió de procesar los datos de llamadas de los clientes de una compañía de tecnología móvil líder en España. A partir de este procesamiento de datos los especialistas del IIC lograron reconstruir una red de relación social, identificando comunidades, grupos y roles de dichos clientes. Esta reconstrucción, sumada al análisis histórico de la adopción de un servicio específico ofrecido por la compañía, permitió elaborar algoritmos predictivos dinámicos. Es decir: algoritmos capaces de asignar —a los clientes que aún no han adoptado el servicio— índices respectivos de probabilidad de adoptar el servicio en un futuro próximo, esto en función de su red social, comunidad de pertenencia y perfil.
Según un comunicado de prensa del IIC, este modelo demuestra que la inclusión de las variables de relación social en los modelos predictivos aumenta, en un 100%, la tasa de detección de nuevas adopciones con respecto a modelos que no incluyen la parte social.
Los modelos para la predicción de la adopción de innovaciones —o simplemente “modelos de adopción”— se fundamentan en la difusión de innovaciones, una teoría sociológica que pretende explicar cómo, porqué y a qué velocidad se mueven las nuevas ideas (y tecnologías) a través de las diversas culturas.
Estos modelos (también llamados de contagio) asumen que la propensión de adoptar un producto o servicio por parte de un individuo aumenta cuando crece el número de vecinos en su red social que ya la han adoptado. Es a partir de esta premisa que es posible elaborar algoritmos predictivos dinámicos, cuyos parámetros se estiman con un conjunto histórico de datos de entrenamiento. Una vez entrenado, el modelo se utiliza para determinar la influencia que un conjunto de clientes, usuarios de determinado servicio, puede ejercer sobre el resto de clientes no-usuarios que forman su entorno social.
La precisión de estas predicciones se mide, entre otros métodos, a través del ratio de falsos positivos (FPR), que es la tasa de predicciones de adopción erróneas sobre el total de las que han resultado correctas. El modelo desarrollado por el IIC ha demostrado que la inclusión de datos sociales en los modelos predictivos reduce en un 30% el ratio de falsos positivos.
De este modelo, asegura el IIC en su comunicado, se pueden beneficiar todas aquellas empresas que dispongan de información relacional de sus clientes.martes, 10 de abril de 2012
Oficina española de Patentes y Marcas. Canales RSS.
- Noticias de Signos Distintivos de la OEPMRSS de noticias de signos distintivos de la OEPM
- Noticias de Propiedad Industrial de la OEPMRSS de noticias de propiedad industrial de la OEPM
- Noticias de Piratería de la OEPMRSS de noticias de piratería de la OEPM
- Noticias de Invenciones de la OEPMRSS de noticias de invenciones de la OEPM
- Noticias de Diseños Industriales de la OEPMRSS de noticias de diseños industriales de la OEPM
- Noticias de Calidad de la OEPMRSS de noticias de calidad de la OEPM
- Todas las noticias de la OEPMRSS de todas las noticias sobre la OEPM
- Eventos de la OEPM sobre Signos Distintivos.RSS de eventos de signos distintivos de la OEPM
- Eventos de la OEPM sobre Propiedad Industrial.RSS de eventos de propiedad industrial de la OEPM
- Eventos de la OEPM sobre Piratería.RSS de eventos de piratería de la OEPM
- Eventos de la OEPM sobre Invenciones.RSS de eventos de invenciones de la OEPM
- Eventos de la OEPM sobre Formación.RSS de eventos de formación de la OEPM
- Eventos de la OEPM sobre Diseños.RSS de eventos de diseños de la OEPM
- Eventos de la OEPM sobre Calidad.RSS de eventos de calidad de la OEPM
- Todos los eventos de la OEPMRSS de eventos de la OEPM
- Empleo en la OEPMRSS relacionado con el empleo en la OEPM.
- Todas las licitaciones de la OEPMRSS de todas las licitaciones de la OEPM
- Ayudas de la OEPMRSS de las Ayudas de la OEPM para fomento de patentes y modelos de utilidad.
sábado, 7 de abril de 2012
viernes, 6 de abril de 2012
domingo, 1 de abril de 2012
Lista de feeds de solicitudes de patente españolas, europeas y PCT
Lista de feeds correspondientes a solicitudes de patente españolas, europeas y PCT en los sectores que se han considerado más importantes: alimentación y energías renovables. En cada caso, se indican los símbolos de clasificación empleados.
Alimentación
- Aceites (CIP: A23D)
- Alimentación Animal (CIP: A23K1+)
- Bebidas (CIP: A23L2+ OR C12G OR C12C)
- Cárnico (CIP: A22C5-21)
- Conservas (CIP: A23L3+)
- Frutas y Hortalizas (CIP: A23N)
- Lácteos (CIP: A23C)
- Panadería (CIP: A21D)
- Pescados (CIP: A22C25-29)
Energías renovables
- Eólica (ECLA: Y02E10/7+)
- Hidráulica (ECLA: Y02E10/2+)
- Solar Térmica (ECLA: Y02E10/4+)
- Solar Fotovoltaica (ECLA: Y02E10/5+)
viernes, 30 de marzo de 2012
V.S.S.T.’2012; VEILLE STRATEGIQUE SCIENTIFIQUE & TECHNOLOGIQUE, SYSTÈMES D’INFORMATION ELABORÉE, BIBLIOMÉTRIE, LINGUISTIQUE, INTELLIGENCE ÉCONOMIQUE.
Tomado de http://atlas.irit.fr/programme.html
Le séminaire VSST’2012 est organisé pour présenter des travaux de recherche et de développement industriel innovants dans le domaine des systèmes de Veille Stratégique Scientifique et Technologique.
Les données scientifiques et techniques, qu’elles soient textuelles ou factuelles, formelles ou informelles, constituent des mines d’informations stratégiques aussi bien pour les décideurs (intelligence économique, veille concurrentielle) que pour les chercheurs et les ingénieurs (veille scientifique et technologique). Cependant, devant la masse croissante d’information, les organismes ont besoin de systèmes d’aide à l’analyse de plus en plus performants. Ces systèmes doivent offrir des possibilités d’exploration très fine et de représentation synthétique de l’information recueillie et des nouvelles connaissances déduites. En amont, ils doivent assurer la collecte, la sélection et le filtrage de l’information électronique disponible dans des bases spécialisées internes, externes et sur Internet, ainsi que la prise en compte des données informelles collectées, sur le terrain, par les différents acteurs de la veille. En aval, pour la restitution des résultats, ils doivent privilégier l’ergonomie dans les fonctions de présentation, de navigation et de synthèse.
Après Lille en 2006 et Nancy 2009, dans cette troisième édition du séminaire VSST, un intérêt tout particulier sera accordé aux méthodes et applications qui garantissent une exploitation efficace des grandes masses de documents et qui sont porteuses d’une réelle plus-value informationnelle : collecte et extraction d’informations pertinentes, exploration, analyse et synthèse, interactivité dans les systèmes de découverte. Cette année, VSST se déroule selon les schémas complémentaires suivants :
Diez años construyendo una web semántica
Tomado de Diez años construyendo una web semántica, (www.fgcsic.es/lychnos/).
En mayo de 2001 la revista Scientific American publicaba un artículo en el que se proponía una nueva forma de organizar el contenido en la Red que desencadenaría una avalancha de posibilidades y, en consecuencia, revolucionaría Internet. El primer autor del artículo era Tim Berners-Lee. Todos estamos bastante familiarizados con la Web y sobre cómo operar con ella. Abrimos un navegador (por ejemplo, Explorer, Firefox o Safari) e introducimos la dirección de la página que deseamos consultar o bien pedimos a un buscador (por ejemplo Google o Yahoo!) que nos determine las ubicaciones de documentos en la Web que contengan una combinación de palabras deseada y que nos las ordene por importancia.
A partir de ahí podemos ir saltando de una página web a otra a través de hipervínculos –estas palabras, frases, imágenes o iconos que generan la descarga automática de otra página web cuando pinchamos sobre ellos–. Esto es lo que se conoce como la web de primera generación o Web 1.0: personas conLa visión de una web semántica, tal y como la plantearon Berners-Lee y sus colaboradores hace diez años, incluye también la posibilidad de razonar y sacar conclusiones lógicas de forma automatizada a partir de los datos publicados en la Webconocimiento especializado de diseño y composición de páginas web crean los documentos con su contenido y definen los hipervínculos que los entrelazan; los usuarios no expertos son fundamentalmente consumidores de información. Leen noticias, consultan diccionarios, visualizan imágenes o vídeos o compran productos.
En la web de segunda generación, la Web 2.0, los usuarios no expertos, además de consumidores, pueden ser también generadores de contenidos y proveedores de servicios. Mediante blogs, por ejemplo, se pueden escribir y compartir reflexiones periódicas, y los lectores pueden añadir comentarios o nuevos enlaces relevantes; conWikipedia, millones de personas construyen una gran enciclopedia multilingüe que constantemente es actualizada y ampliada por los propios usuarios; a través de redes entre pares, como originalmente Napster, BitTorrent o eMule, se comparten películas y ficheros de música; y últimamente, con la irrupción de las redes sociales —Facebook, Tuenti o Twitter—, la Web se ha convertido en un espacio global de participación e interacción entre usuarios.
La web semántica viene a ser la tercera generación de la Web, la Web 3.0, una extensión de la Web actual en la que los contenidos están organizados de forma que no solo los humanos sino también las computadoras sean capaces de procesar su significado —por eso lo de semántica— posibilitando así una mejor cooperación entre computadoras y humanos. La nomenclatura Web 1.0, 2.0 y 3.0 es seguramente artificiosa, ya que de hecho no se trata de nuevas versiones de la Web, sino de la misma web de siempre pero con niveles añadidos de funcionalidad.
En mayo de 2001 la revista Scientific American publicaba un artículo en el que se proponía una nueva forma de organizar el contenido en la Red que desencadenaría una avalancha de posibilidades y, en consecuencia, revolucionaría Internet. El primer autor del artículo era Tim Berners-Lee. Todos estamos bastante familiarizados con la Web y sobre cómo operar con ella. Abrimos un navegador (por ejemplo, Explorer, Firefox o Safari) e introducimos la dirección de la página que deseamos consultar o bien pedimos a un buscador (por ejemplo Google o Yahoo!) que nos determine las ubicaciones de documentos en la Web que contengan una combinación de palabras deseada y que nos las ordene por importancia.
A partir de ahí podemos ir saltando de una página web a otra a través de hipervínculos –estas palabras, frases, imágenes o iconos que generan la descarga automática de otra página web cuando pinchamos sobre ellos–. Esto es lo que se conoce como la web de primera generación o Web 1.0: personas conLa visión de una web semántica, tal y como la plantearon Berners-Lee y sus colaboradores hace diez años, incluye también la posibilidad de razonar y sacar conclusiones lógicas de forma automatizada a partir de los datos publicados en la Webconocimiento especializado de diseño y composición de páginas web crean los documentos con su contenido y definen los hipervínculos que los entrelazan; los usuarios no expertos son fundamentalmente consumidores de información. Leen noticias, consultan diccionarios, visualizan imágenes o vídeos o compran productos.
En la web de segunda generación, la Web 2.0, los usuarios no expertos, además de consumidores, pueden ser también generadores de contenidos y proveedores de servicios. Mediante blogs, por ejemplo, se pueden escribir y compartir reflexiones periódicas, y los lectores pueden añadir comentarios o nuevos enlaces relevantes; conWikipedia, millones de personas construyen una gran enciclopedia multilingüe que constantemente es actualizada y ampliada por los propios usuarios; a través de redes entre pares, como originalmente Napster, BitTorrent o eMule, se comparten películas y ficheros de música; y últimamente, con la irrupción de las redes sociales —Facebook, Tuenti o Twitter—, la Web se ha convertido en un espacio global de participación e interacción entre usuarios.
La web semántica viene a ser la tercera generación de la Web, la Web 3.0, una extensión de la Web actual en la que los contenidos están organizados de forma que no solo los humanos sino también las computadoras sean capaces de procesar su significado —por eso lo de semántica— posibilitando así una mejor cooperación entre computadoras y humanos. La nomenclatura Web 1.0, 2.0 y 3.0 es seguramente artificiosa, ya que de hecho no se trata de nuevas versiones de la Web, sino de la misma web de siempre pero con niveles añadidos de funcionalidad.
Tiempo para nuevos modelos de comunicación y difusión de la ciencia
Tomado de Tiempo para nuevos modelos de comunicación y difusión de la ciencia, (www.fgcsic.es/lychnos/).
Acceso abierto en España
El acceso abierto se ha concretado en la adhesión de muchas universidades e instituciones científicas a la Declaración de Berlín, la creación de un número significativo de repositorios institucionales, entre los que destacan los de la Universidad Autónoma de Barcelona, el de la Universidad Politécnica de Cataluña y el del CSIC, según el Ranking Webometrics de Repositorios, y la creación del recolector de la producción española disponible en los repositorios existentes (RECOLECTA). Algunas universidades tienen mandatos institucionales y otras han empezado a considerar la oportunidad de financiar, aunque aún de forma muy tibia, los costes de publicación en acceso abierto.
Sin embargo, se observa, con respecto a otras instituciones científicas europeas (UK Research Councils, Netherlands Organisation for Scientific Research, CNRS, Max Planck Society), una falta de compromiso a nivel de instituciones y país más firme y decidida. Seguramente, la nueva ley de la Ciencia y las directivas europeas, y las que están por llegar, contribuirán a reforzar la estrategia nacional.
Un nuevo escenario, ¿nuevas reglas de juego?
El acceso abierto está transformando la realidad cotidiana de las instituciones afectando a cuestiones tan relevantes, como los modelos de negociación de recursos de información, los sistemas de evaluación y la gestión de los derechos de explotación de resultados.
Nuevos modelos de negociación de información científica
Existe un buen número de revistas científicas de calidad en abierto o sujetas al acceso abierto híbrido. Pero la publicación gratuita de contenidos científicos en las mismas tiene siempre un coste, que recae sobre la institución de los autores que publican, y no sobre los lectores. Esto está suponiendo una alteración del modelo tradicional de contratación de recursos de información basado en el paradigma «la biblioteca-institución paga» para su consulta, al nuevo paradigma, «el autor-institución paga» para su difusión en abierto. Por ello, la negociación de cuotas institucionales de acceso abierto ha pasado a formar parte de los contratos con editores, como una cláusula adicional, que fija cómo hacer frente al pago de las publicaciones que los autores de una determinada institución publican bajo esta modalidad. Las instituciones más comprometidas con el acceso abierto ya están considerando que los presupuestos de investigación deben contemplar partidas para costear la publicación de la ciencia que producen en abierto.
Se están introduciendo también cambios en los modelos de licencia editorial: se trata de la llamada «cláusula verde» por la que se exige a los editores el depósito en el repositorio institucional de los borradores revisados de los artículos de los autores institucionales publicados en sus títulos.
Nuevos modelos de evaluación científica
El acceso abierto ha entrado en el debate sobre la vigencia del modelo de evaluación científica sustentado casi en exclusiva en el Journal Impact Factor (JIF). Surgen voces críticas sobre la adecuación del JIF para evaluar la productividad y excelencia de los investigadores, a lo que se unen críticas a la profusión de publicaciones científicas, resultado del modelo de evaluación imperante y de la validez del peer review actual. El Comité de Ciencia y Tecnología en el Reino Unido ha abordado ambas cuestiones, abogando por sistemas de revisión por pares más acordes con la realidad, y cita como posible modelo alternativo el de PLOS One, subrayando además la conveniencia de que los datos puros de carácter científico, salvo excepciones, sean accesibles públicamente.
Otros criterios de evaluación han ido abriéndose paso, como el Journal Usage Factor, o criterios cualitativos, como el impacto socioeconómico de los resultados de la investigación y la verdadera transferencia de conocimiento, que permite acceder a tales resultados en su totalidad sin tener que pagar por ello una segunda vez.
Más y más instituciones científicas y universidades, especialmente en el ámbito anglosajón, están diseñando nuevos modelos de evaluación y financiación de proyectos científicos, enriqueciendo los criterios y los niveles de impacto en consideración. Entre los nuevos criterios aparece la exigencia de que la producción en evaluación se haya difundido en abierto o que el repositorio institucional sea el canal de envío de los trabajos para ser evaluados. Un ejemplo exitoso del nuevo enfoque es la Universidad de Liège.
Para terminar, destacamos nuevos planteamientos para estimar el rendimiento económico de la producción y comunicación científica; estudios como Economic implications of alternative scholarly publishing models (2009) calculan los costes, beneficios y oportunidades que ofrecería la transición hacia un modelo de acceso alternativo.
Acceso abierto en España
El acceso abierto se ha concretado en la adhesión de muchas universidades e instituciones científicas a la Declaración de Berlín, la creación de un número significativo de repositorios institucionales, entre los que destacan los de la Universidad Autónoma de Barcelona, el de la Universidad Politécnica de Cataluña y el del CSIC, según el Ranking Webometrics de Repositorios, y la creación del recolector de la producción española disponible en los repositorios existentes (RECOLECTA). Algunas universidades tienen mandatos institucionales y otras han empezado a considerar la oportunidad de financiar, aunque aún de forma muy tibia, los costes de publicación en acceso abierto.
Sin embargo, se observa, con respecto a otras instituciones científicas europeas (UK Research Councils, Netherlands Organisation for Scientific Research, CNRS, Max Planck Society), una falta de compromiso a nivel de instituciones y país más firme y decidida. Seguramente, la nueva ley de la Ciencia y las directivas europeas, y las que están por llegar, contribuirán a reforzar la estrategia nacional.
Un nuevo escenario, ¿nuevas reglas de juego?
El acceso abierto está transformando la realidad cotidiana de las instituciones afectando a cuestiones tan relevantes, como los modelos de negociación de recursos de información, los sistemas de evaluación y la gestión de los derechos de explotación de resultados.
Nuevos modelos de negociación de información científica
Existe un buen número de revistas científicas de calidad en abierto o sujetas al acceso abierto híbrido. Pero la publicación gratuita de contenidos científicos en las mismas tiene siempre un coste, que recae sobre la institución de los autores que publican, y no sobre los lectores. Esto está suponiendo una alteración del modelo tradicional de contratación de recursos de información basado en el paradigma «la biblioteca-institución paga» para su consulta, al nuevo paradigma, «el autor-institución paga» para su difusión en abierto. Por ello, la negociación de cuotas institucionales de acceso abierto ha pasado a formar parte de los contratos con editores, como una cláusula adicional, que fija cómo hacer frente al pago de las publicaciones que los autores de una determinada institución publican bajo esta modalidad. Las instituciones más comprometidas con el acceso abierto ya están considerando que los presupuestos de investigación deben contemplar partidas para costear la publicación de la ciencia que producen en abierto.
Se están introduciendo también cambios en los modelos de licencia editorial: se trata de la llamada «cláusula verde» por la que se exige a los editores el depósito en el repositorio institucional de los borradores revisados de los artículos de los autores institucionales publicados en sus títulos.
Nuevos modelos de evaluación científica
El acceso abierto ha entrado en el debate sobre la vigencia del modelo de evaluación científica sustentado casi en exclusiva en el Journal Impact Factor (JIF). Surgen voces críticas sobre la adecuación del JIF para evaluar la productividad y excelencia de los investigadores, a lo que se unen críticas a la profusión de publicaciones científicas, resultado del modelo de evaluación imperante y de la validez del peer review actual. El Comité de Ciencia y Tecnología en el Reino Unido ha abordado ambas cuestiones, abogando por sistemas de revisión por pares más acordes con la realidad, y cita como posible modelo alternativo el de PLOS One, subrayando además la conveniencia de que los datos puros de carácter científico, salvo excepciones, sean accesibles públicamente.
Otros criterios de evaluación han ido abriéndose paso, como el Journal Usage Factor, o criterios cualitativos, como el impacto socioeconómico de los resultados de la investigación y la verdadera transferencia de conocimiento, que permite acceder a tales resultados en su totalidad sin tener que pagar por ello una segunda vez.
Más y más instituciones científicas y universidades, especialmente en el ámbito anglosajón, están diseñando nuevos modelos de evaluación y financiación de proyectos científicos, enriqueciendo los criterios y los niveles de impacto en consideración. Entre los nuevos criterios aparece la exigencia de que la producción en evaluación se haya difundido en abierto o que el repositorio institucional sea el canal de envío de los trabajos para ser evaluados. Un ejemplo exitoso del nuevo enfoque es la Universidad de Liège.
Para terminar, destacamos nuevos planteamientos para estimar el rendimiento económico de la producción y comunicación científica; estudios como Economic implications of alternative scholarly publishing models (2009) calculan los costes, beneficios y oportunidades que ofrecería la transición hacia un modelo de acceso alternativo.
La Internet del futuro y la I + D
Tomado de La Internet del futuro y la I + D (www.fgcsic.es/lychnos/)
El entorno de las redes académicas para la investigación y el aprendizaje va a experimentar un cambio profundo en los próximos años. La introducción de las nuevas tecnologías de la Internet del futuro va a producir cambios en la naturaleza del proceso científico y en la forma de entender el aprendizaje.
Aunque no es posible conocer en detalle como se van a concretar esos cambios y no es descartable que aparezcan otras tecnologías. Ciertas áreas, como las relacionadas con los dispositivos móviles, los sensores o las redes de alta capacidad, van a ser sin duda claves en la configuración del escenario que se perfila para la próxima década.
Los primeros demandantes de esas nuevas tecnologías son las grandes instituciones y proyectos científicos, como CERN, EGI, PRACE o ITER, que despliegan poderosos instrumentos científicos sobre los que trabajan miles de investigadores distribuidos por todo el mundo. Esto ya exige potentes redes de comunicaciones para mover, almacenar y procesar enormes volúmenes de datos.
En algún caso la Red va incluso a formar parte del instrumento científico, como en el proyecto eVLBI para la observación de objetos celestes sincronizando gran número de radiotelescopios ubicados en distintas partes de la Tierra con un centro que se encuentra en Holanda (JIVE). En este proyecto, la red de datos es un elemento del instrumento virtual formado por la red de telescopios.
La Internet en general y las redes académicas en particular han evolucionado desde un puro medio de transporte de datos a un entorno de comunidades globales que comparten recursos y objetivos.
La Internet del futuro va a permitir introducir nuevas formas de colaboración, va a ofrecer muchas más posibilidades a los investigadores, que van a poder disponer de más medios y más datos para sus investigaciones y van a tener mucha más facilidad para compartirlos con sus colegas en cualquier parte del mundo. Las oportunidades que se ofrecen para el futuro son inmensas y en muchos aspectos difíciles de imaginar en estos momentos.
El entorno de las redes académicas para la investigación y el aprendizaje va a experimentar un cambio profundo en los próximos años. La introducción de las nuevas tecnologías de la Internet del futuro va a producir cambios en la naturaleza del proceso científico y en la forma de entender el aprendizaje.
Aunque no es posible conocer en detalle como se van a concretar esos cambios y no es descartable que aparezcan otras tecnologías. Ciertas áreas, como las relacionadas con los dispositivos móviles, los sensores o las redes de alta capacidad, van a ser sin duda claves en la configuración del escenario que se perfila para la próxima década.
Los primeros demandantes de esas nuevas tecnologías son las grandes instituciones y proyectos científicos, como CERN, EGI, PRACE o ITER, que despliegan poderosos instrumentos científicos sobre los que trabajan miles de investigadores distribuidos por todo el mundo. Esto ya exige potentes redes de comunicaciones para mover, almacenar y procesar enormes volúmenes de datos.
En algún caso la Red va incluso a formar parte del instrumento científico, como en el proyecto eVLBI para la observación de objetos celestes sincronizando gran número de radiotelescopios ubicados en distintas partes de la Tierra con un centro que se encuentra en Holanda (JIVE). En este proyecto, la red de datos es un elemento del instrumento virtual formado por la red de telescopios.
La Internet en general y las redes académicas en particular han evolucionado desde un puro medio de transporte de datos a un entorno de comunidades globales que comparten recursos y objetivos.
La Internet del futuro va a permitir introducir nuevas formas de colaboración, va a ofrecer muchas más posibilidades a los investigadores, que van a poder disponer de más medios y más datos para sus investigaciones y van a tener mucha más facilidad para compartirlos con sus colegas en cualquier parte del mundo. Las oportunidades que se ofrecen para el futuro son inmensas y en muchos aspectos difíciles de imaginar en estos momentos.
domingo, 25 de marzo de 2012
Las 10 mejores plataformas online para crear tu propio blog gratis
Tomado de http://wwwhatsnew.com/2012/03/24/las-10-mejores-plataformas-online-para-crear-tu-propio-blog-gratis/
Lo mejor de todo esto es que lo único necesario para crear un blog es una idea y las ganas de ponerla en práctica, pues respecto a gestión del contenido y almacenamiento las opciones gratuitas abundan. Como ejemplo los siguientes 10 ítems, 10 grandes plataformas online para armar un espacio de calidad literalmente en segundos.
Suscribirse a:
Entradas (Atom)


