Usabilidade Pedagógica: Um Fator Determinante na Adoção do e-Learning no Ensino Superior

May 30, 2017 | Autor: Neuza Pedro | Categoria: E-learning, Higher Education, Pedagogical Usability
Share Embed


Descrição do Produto

Sistemas e Tecnologias de Informação Atas da 10ª Conferência Ibérica de Sistemas e Tecnologias de Informação Águeda, Portugal 17 a 20 de junho de 2015 Vol. II – Artigos

Editores

Álvaro Rocha Arnaldo Martins Gonçalo Paiva Dias Luís Paulo Reis Manuel Pérez Cota

Artigos Curtos Artigos Poster Simpósio Doutoral

Sistemas e Tecnologias de Informação

Atas da 10ª Conferência Ibérica de Sistemas e Tecnologias de Informação Águeda, Portugal 17 a 20 de Junho de 2015 AISTI | Universidade de Aveiro

Vol. II

Artigos Curtos, Artigos Poster, Simpósio Doutoral

Editores

Álvaro Rocha Arnaldo Martins Gonçalo Paiva Dias Luís Paulo Reis Manuel Pérez Cota

ISBN: 978-989-98434-5-5

CISTI 2015 | 1

CRÉDITOS TÍTULO Sistemas e Tecnologias de Informação SUB-TÍTULO

Atas da 10ª Conferência Ibérica de Sistemas e Tecnologias de Informação Águeda, Portugal 17 a 20 de Junho de 2015

Vol. II

Artigos Curtos, Artigos Poster, Simpósio Doutoral

EDITORES

Álvaro Rocha, Universidade de Coimbra Arnaldo Martins, Universidade de Aveiro Gonçalo Paiva Dias, Universidade de Aveiro Luís Paulo Reis, Universidade do Minho Manuel Pérez Cota, Universidad de Vigo

EDIÇÃO, IMPRESSÃO E ACABAMENTOS APPACDM Associação Portuguesa de Pais e Amigos do Cidadão Deficiente Mental, Braga, Portugal DEPÓSITO LEGAL 393710/15 ISBN 978-989-98434-5-5 WEB http://www.aisti.eu/cisti2015 CopyRight 2015 - AISTI (Associação Ibérica de Sistemas e Tecnologias de Informação)

CISTI 2015 | 2

Comissão Coordenadora Álvaro Rocha, Universidade de Coimbra (Presidente) Manuel Pérez Cota, Universidad de Vigo (Simpósio Doutoral) Luis Paulo Reis, Universidade do Minho (Workshops) Carlos Ferrás Sexto, Universidad de Santiago de Compostela Adolfo Lozano Tello, Universidad de Extremadura Jose Antonio Calvo-Manzano Villalón, Universidad Politécnica de Madrid Ramiro Gonçalves, Universidade de Trás-os-Montes e Alto Douro António Lucas Soares, Universidade do Porto, FEUP Miguel Castro Neto, Universidade Nova de Lisboa, ISEGI Gonçalo Paiva Dias, Universidade de Aveiro David Fonseca, La Salle, Universitat Ramon Llull Ernest Redondo, Universidad Politécnica de Catalunya Comissão Organizadora Local Gonçalo Paiva Dias, Universidade de Aveiro, ESTGA (Presidente) Ana Rita Calvão, Universidade de Aveiro, ESTGA Fábio Marques, Universidade de Aveiro, ESTGA Hélder Gomes, Universidade de Aveiro, ESTGA Joaquim Sousa Pinto, Universidade de Aveiro, DETI Mário Rodrigues, Universidade de Aveiro, ESTGA Comissão Científica Arnaldo Martins, Universidade de Aveiro (Presidente) A. Augusto Sousa, Universidade do Porto, FEUP Adhemar Valle Filho, UNIVALI Adrián Hiebra, Universidad Santiago de Compostela Adriano Pasqualotti, Universidade de Passo Fundo Alberto Bugarín, Universidade de Santiago de Compostela Alberto Cardoso, Universidade de Coimbra Alberto Fernández, Universidad Rey Juan Carlos Alberto Freitas, Universidade do Porto, FMUP Alcinia Zita Sampaio, Universidade de Lisboa, IST Alejandro Medina, Universidad Politécnica de Chiapas Alejandro Peña, Escuela de Ingeniería de Antioquia Aletéia Araújo, Universidade de Brasília Alexandre Carvalho, Universidade do Porto, FEUP Alexandre L'Erario, Universidade Tecnológica Federal do Paraná Alexandre Miguel Pinto, Universidade de Coimbra Alma María Gómez-Rodríguez, Universidade de Vigo Alvaro Barradas, Universidade do Algarve Álvaro E. Prieto, Universidad de Extremadura

CISTI 2015 | 3

Ana Azevedo, Instituto Politécnico do Porto, ISCAP Ana Isabel Veloso, Universidade de Aveiro Ana Maria Ramalho- Correia, Universidade Nova de Lisboa, ISEGI Ana Paiva, Universidade do Porto, FEUP Ana Paula Afonso, Instituto Politécnico do Porto, ISCAP Anabela Mesquita, Instituto Politécnico do Porto, ISCAP Andres Montoyo, Universidad de Alicante Ángel F. Agudo-Peregrina, Universidad Politécnica de Madrid Angélica Caro, Universidad de Bío-Bío Ania Cravero, Universidad de La Frontera Anibal Zaldivar Colado, Universidad Autonoma de Sinaloa Antoni Lluís Mesquida Calafat, Universitat de les Illes Balears Antonia Mas, Universitat de les Illes Balears António Coelho, Universidade do Porto, FEUP Antonio Correia-Pereira, WIT Software Antonio Fernández-Caballero, Universidad de Castilla-La Mancha Antonio Jesus Garcia Loureiro, Universidade de Santiago de Compostela Antonio Jiménez-Martín, Universidad Politécnica de Madrid António Pedro Costa, Ludomedia e Universidade de Aveiro António Pereira, Instituto Politécnico de Leiria António Teixeira, Universidade de Aveiro António Trigo, Instituto Politécnico de Coimbra, ISCAC Armando Mendes, Universidade dos Açores Armando Sousa, Universidade do Porto, FEUP Artur Sousa, Instituto Politécnico de Viseu Arturo J. Méndez, Universidade de Vigo Arturo Mora-Soto, Centro de Investigación en Matemáticas (CIMAT) August Climent, La Salle Open University Baltasar García Perez-Schofield, Universidade de Vigo Beatriz Sainz de Abajo, Universidad de Valladolid Benedita Malheiro, Instituto Politécnico do Porto, ISEP Benjamim Fonseca, Universidade de Trás-os-Montes e Alto Douro Bráulio Alturas, Instituto Universitário de Lisboa (ISCTE-IUL) Brenda L. Flores-Rios, Universidad Autónoma de Baja California Brígida Mónica Faria, Instituto Politécnico do Porto, ISTSP Carlos Carreto, Instituto Politécnico da Guarda Carlos Hernan Fajardo Toro, Universidad EAN Carlos Manuel Azevedo Costa, Universidade de Aveiro Carlos Morais, Instituto Politécnico de Bragança Carlos Rabadão, Instituto Politécnico de Leiria Carlos Vaz de Carvalho, Instituto Politécnico do Porto, ISEP Célio Gonçalo Marques, Instituto Politécnico de Tomar Ciro Martins, Universidade de Aveiro Cristina Olaverri Monreal, Austrian Institute of Technology

CISTI 2015 | 4

Cláudio Teixeira, Universidade de Aveiro Daniel Castro Silva, Universidade do Porto, FEUP Daniel Polonia, Universidade de Aveiro Daniel Riesco, Universidad Nacional de San Luis David Díez, Universidad Carlos III de Madrid David Garcia Rosado, Universidade de Castilla-La Mancha Delfina Soares, Universidade do Minho Dora Simões, Universidade de Aveiro Eduardo Sánchez Vila, Universidade de Santiago de Compostela Elisabete Paulo MoraisInstituto Politécnico de Bragança Enrique Barreiro Alonso, Universidade de Vigo Eugénio Oliveira, Universidade do Porto Fábio José Reis Luís Marques, Universidade de Aveiro Fátima David, Instituto Politécnico da Guarda Feliz Gouveia, Universidade Fernando Pessoa Fernando Bandeira, Universidade Fernando Pessoa Fernando Bobillo, Universidad de Zaragoza Fernando Moreira, Universidade Portucalense Fernando Reinaldo Ribeiro, Instituto Politécnico de Castelo Branco Filipe Meneses, Universidade do Minho Francisco Antunes, Universidade da Beira Interior Frank Affonso, Universidade Estadual Paulista Frederico Branco, Universidade de Trás-os-Montes e Alto Douro Gabriel David, Universidade do Porto, FEUP Gerardo Gonzalez Filgueira, Universidade da Coruña Gerardo Rodriguez, Universidad de Salamanca German Montejano, Universidad Nacional de San Luis Gonzalo Cuevas Agustin, Universidad Politécnica de Madrid Guilhermina Lobato Miranda, Universidade de Lisboa Hélder Zagalo, Universidade de Aveiro Hélia Guerra, Universidade dos Açores Henrique Gil, Instituto Politécnico de Castelo Branco Henrique Santos, Universidade do Minho Henrique S. Mamede, Universidade de Aberta Higino Ramos Calle, Universidade de Salamanca Hugo Paredes, Universidade de Trás-os-Montes e Alto Douro Isabel Pedrosa, Instituto Politécnico de Coimbra, ISCAC Isabel Seruca, Universidade Portucalense Isaura Ribeiro, Universidade dos Açores Isidro Calvo, Universidad del Pais Vasco Ismael Etxeberria-Agiriano, Universidad del País Vasco (UPV/EHU) Jaime Cardoso, Universidade do Porto Javier D. Fernández, Università di Roma La Sapienza Javier Garcia Tobio, Centro de Supercomputación de Galicia (CESGA)

CISTI 2015 | 5

Jerónimo Nunes, Universidade dos Açores João Balsa, Universidade de Lisboa João Barroso, Universidade de Trás-os-Montes e Alto Douro João Carlos Silva, Instituto Politécnico do Cávado e do Ave João Costa, Universidade de Coimbra João Fabro, Universidade Tecnológica Federal do Paraná João Ferreira, Instituto Politécnico de Lisboa, ISEL João Paulo Vilela, Universidade de Coimbra João Tavares, Universidade do Porto, FEUP João Varajão, Universidade do Minho Joaquim Ferreira, Universidade de Aveiro Joaquim Gonçalves, Instituto Politécnico do Cávado e do Ave Joaquim Madeira, Universidade de Aveiro Joaquim Reis, Instituto Universitário de Lisboa (ISCTE-IUL) Joaquín Regot, Universitat Politècnica de Catalunya Joaquim Sousa Pinto Universidade de Aveiro Jörg Thomaschewski, Hochschule Emden/Leer Jorge Mamede, Instituto Politécnico do Porto, ISEP Jose Alfonso Aguilar-Calderon, Universidad Autónoma de Sinaloa José Augusto Fabri, Universidade Tecnológica Federal do Paraná José Braga de Vasconcelos, Universidade Atlântica José Cascalho, Universidade dos Açores Jose Luis Herrero Agustín, Universidade de Extremadura José Luis Oliveira, Universidade de Aveiro Jose Luis Pastrana-Brincones, Universidad de Málaga José Luís Pereira, Universidade do Minho José Luís Silva, Universidade da Madeira José M. Conejero, Universidad de Extremadura José Manuel Oliveira, Universidade do Porto, FEP José Manuel Torres, Universidade Fernando Pessoa Jose Maria de Fuentes, University Carlos III of Madrid Jose Maria Zavala Perez, Universidade de Santiago de Compostela José Martins, Universidade de Trás-os-Montes e Alto Douro José Molina, Universidad Carlos III de Madrid José Moreira, Universidade de Aveiro José Moreira, Universidade do Porto, FEP José Paulo Lousado, Instituto Politécnico de Viseu José R.R. Viqueira, Universidade de Santiago de Compostela José Salvado, Instituto Politécnico de Castelo Branco José Silva, Academia Militar Josep Maria Marco-Simó, Universitat Oberta de Catalunya Juan Carlos González Moreno, Universidade de Vigo Juan d'amato, UNCPBA-CONICET-PLADEMA

CISTI 2015 | 6

Juan M. Santos,Universidade de Vigo Juan Sánchez Díaz, Universidad Politécnica de Valencia Julia González, Universidad de Extremadura Leila Weitzel, Universidade Federal do Sul e Sudeste do Pará Leonilde Reis, Instituto Politécnico de Setúbal Lilia Muñoz, Universidad Tecnologica de Panama Liliane Segura, Universidade Presbiteriana Mackenzie Luís Barbosa, Universidade de Trás-os-Montes e Alto Douro Luís Bernardo, Universidade Nova de Lisboa, FCT Luís Bruno, Instituto Politécnico de Beja Luís Cavique, Universidade Aberta Luis Fernandez Sanz, Universidad de Alcalá Luis Mendes Gomes, Universidade dos Açores Luis Vilán-Crespo, Universidad de Vigo Luisa María Romero-Moreno, Universidad de Sevilla Luisa Miranda, Instituto Politécnico de Bragança Luz Sussy Bayona Ore, Universidad Politécnica de Madrid Magdalena Arcilla, Universidad Nacional de Educación a Distancia Manuel Caeiro Rodríguez, Universidade de Vigo Manuel Fernández-Veiga, Universidade de Vigo Manuel Jose Fernandez Iglesias, Universidade de Vigo Manuel Lama, Universidade de Santiago de Compostela Marcelo Mendonça Teixeira, Universidade Federal Rural de Pernambuco Marco Painho, Universidade Nova de Lisboa, ISEGI Margarita Díaz-Roca, Universidad de Las Palmas de Gran Canaria María J Lado, Universidade de Vigo Maria João Ferreira, Universidade Portucalense Maria João Gomes, Universidade do Minho Maria José Angélico, Instituto Politécnico do Porto, ISCAP Maria José Marcelino, Universidade de Coimbra Mario A. Groppo, Universidad Tecnológica Nacional Mário Carrilho Negas, Universidade Aberta Mário Pinto, Instituto Politécnico do Porto, ESEIG Mário Rodrigues, Universidade de Aveiro Marisol B. Correia, Universidade do Algarve Maristela Holanda, Universidade de Brasília Marta Lopez Fernandez, Xunta de Galicia Martin Llamas Nistal, Universidad de Vigo Matías García Rivera, Universidade de Vigo Mercedes de La Cámara, Universidad Politécnica de Madrid Mercedes Ruiz, Universidade de Cádiz Miguel Bugalho, Universidade Europeia Miguel Casquilho, Universidade de Lisboa, IST Miguel Mira da Silva, Universidade de Lisboa, IST

CISTI 2015 | 7

Miguel Ramón González Castro, ENCE, Energia y Celulosa Milton Ramos, Instituto de Tecnologia do Paraná Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemática (CIMAT) Nelson Rocha, Universidade de Aveiro Nilton Canto, Universidade Nove de Julho Nuno Fortes, Instituto Politécnico de Coimbra Nuno Lau, Universidade de Aveiro Nuno Magalhães Ribeiro, Universidade Fernando Pessoa Omar Vicente García Sánchez, Universidad Autónoma de Sinaloa Orlando Belo, Universidade do Minho Óscar Mealha, Universidade de Aveiro Pablo Gomez Esteban, Vrije Universeit Brussel Pablo González-Nalda, Universidad del País Vasco Paula Peres, Instituto Politécnico do Porto, ISCAP Paula Prata, Universidade da Beira Interior Paulo Jorge Gonçalves Loureiro, Instituto Politécnico de Leiria Paulo Martins, Universidade de Trás-os-Montes e Alto Douro Paulo Pinto, Universidade Nova de Lisboa, FCT Paulo Rupino da Cunha, Universidade de Coimbra Paulo Rurato, Universidade Fernando Pessoa Paulo Tomé, Instituto Politécnico de Viseu Pedro Araújo, Universidade da Beira Interior Pedro Castro, Instituto Politécnico de Viana do Castelo Pedro Faria Lopes, Instituto Universitário de Lisboa (ISCTE-IUL) Pedro Furtado, Universidade de Coimbra Pedro Gonçalves, Unuversidade de Aveiro Pedro Henriques Abreu, Universidade de Coimbra Pedro J. Clemente, Universidade de Extremadura Pedro Miguel Moreira, Instituto Politécnico de Viana do Castelo Pedro Pimenta, Universidade do Minho Pedro Ramos, Instituto Universitário de Lisboa (ISCTE-IUL) Pedro Sánchez-Palma, Universidad Politécnica de Cartagena Pedro Sobral, Universidade de Fernando Pessoa Pilar Mareca López, Universidad Politécnica de Madrid Rafael Muñoz, Universidad de Alicante Raul Laureano, Instituto Universitário de Lisboa (ISCTE-IUL) Renata Spolon Lobato, UNESP Ricardo Machado, Universidade do Minho Ricardo Simões, Instituto Politécnico do Cávado e do Ave Ricardo Timarán Pereira, Universidad de Nariño Rita Santos, Universidade de Aveiro Roberto Rodríguez-Echeverría, Universidad de Extremadura Rodolfo Barros, Universidade Estadual de Londrina Rogério Eduardo Garcia, FCT-UNESP

CISTI 2015 | 8

Rosaldo Rossetti, Universidade do Porto, FEUP Ruben Gonzalez Crespo, Universidad Internacional de La Rioja Rui José, Universidade do Minho Rui Pedro Lourenço, Universidade de Coimbra Rui Santos Cruz, Universidade de Lisboa, IST Rui Silva Moreira, Universidade Fernando Pessoa Rute Abreu, Instituto Politécnico da Guarda Santiago Gonzales Sánchez, Universidad Inca Garcilaso de la Vega Saulo Barbará Oliveira, Universidade Federal Rural do Rio de Janeiro Sergio Gálvez Rojas, Universidad de Málaga Sílvia Fernandes, Universidade do Algarve Solange Nice Alves de Souza, Universidade de São Paulo Tomas San Feliu, Universidad Politécnica de Madrid Valeria Farinazzo Martins, Universidade Presbiteriana Mackenzie Víctor H. Castillo, Universidad de Colima Victor Hugo Medina García, Universidad Distrital Francisco José de Caldas Vítor Carvalho, Instituto Politécnico do Cávado e do Ave Vítor Santos, Universidade Nova de Lisboa, ISEGI Wagner Tanaka Botelho, Universidade Federal do ABC (UFABC) Xose A. Vila, Universidade de Vigo Xosé Antón Regos Varela, Universidade de Santiago de Compostela

CISTI 2015 | 9

nd

2 Workshop on Applied Statistics and Data Analysis using Computer Science Brígida Mónica Faria, Instituto Politécnico do Porto, ESTSP (chair) Pedro Henriques Abreu, Universidade de Coimbra (chair) Sandra Alves, Instituto Politécnico do Porto, ESTSP (chair) Alessandra Alaniz Macedo, Universidade de São Paulo Daniel Castro Silva, Universidade do Porto, FEUP/LIACC Joao Fabro, Universidade Tecnológica Federal doParaná João Mendes-Moreira, Universidade do Porto, FEUP Joaquim Gonçalves, Instituto Politécnico do Cávado e Ave José Moreira, Universidade de Aveiro Julio Cesar Nievola, Pontifícia Universidade Católica do Paraná Luis Paulo Reis, Universidade do Minho Marcia Ito, IBM Research Brasil Nuno Lau, Universidade de Aveiro Pedro Furtado, CISUC, Universidade de Coimbra Pedro J. García-Laencina, Centro Universitario de la Defensa de San Javier Penousal Machado, CISUC, Universidade de Coimbra th

7 Workshop on Intelligent Systems and Applications Alberto Fernandez Gil, Universidad Rey Juan Carlos (chair) Rosaldo Rossetti, Universidade do Porto (chair) João Balsa, Universidade de Lisboa (chair) Ana Paula Rocha, Universidade do Porto Antonio Coelho, Universidade do Porto Antonio J. M. Castro, Universidade do Porto Carlos Carrascosa, Universidad Politecnica de Valencia Carlos A. Iglesias, Universidad Politécnica de Madrid Cesar Analide, Universidade do Minho Cristina Olaverri Monreal, Technische Universität München Eugénio Oliveira, Universidade do Porto Filipa Taborda, Universidade Atlântica Francisco Reinaldo, Universidade Tecnológica Federal do Paraná Gustavo Arnold, Convergence Works Holger Billhardt, Universidad Rey Juan Carlos Joao Leite, Universidade Nova de Lisboa Luis Moniz, Universidade de Lisboa Luís Nunes, Instituto Universitário de Lisboa, ISCTE-IUL Luis Paulo Reis, Universidade do Minho Marin Lujak, Universidad Rey Juan Carlos Miguel Rebollo, Universidad Politécnica de Valencia Nuno David, Instituto Universitário de Lisboa, ISCTE-IUL Patrícia Tedesco, Universidade Federal de Pernambuco Paulo Leitao, Instituto Politécnico de Bragança

CISTI 2015 | 10

Paulo Trigo, Instituto Superior de Engenharia de Lisboa Paulo Urbano, Universidade de Lisboa Ramón Hermoso, Universidad Rey Juan Carlos Renata Galante, Universidade Federal do Rio Grande do Sul Roberto Centeno, Universidad Nacional de Educacion a Distancia Rui Camacho, Universidade do Porto Sascha Ossowski, Universidad Rey Juan Carlos Vicente Julian, Universidad Politecnica de Valencia nd

2 International Workshop on ICT for Auditing Isabel Pedrosa, Instituto Politécnico de Coimbra (chair) Carlos J. Costa, ISCTE-IUL Instituto Universitário de Lisboa (chair) Carlos Santos, Universidade de Aveiro (chair) Hotniar Siringoringo, Gunadarma University (chair) Sergio Leonel Pontes, Pontes Baptista & Associados (chair) Alexandre Silva, ISCAC-Instituto Politécnico de Coimbra Ana Zorio Grima, Departamento de Contabilidad, España, Valencia Ann Svensson, University West, Trollhättan, Sweden Arif Onan, Hacettepe University Faculty of Education, Ankara, Turkey Bruno Horta Soares, GOVaAS.com, ISACA Lisbon Chapter Bruno Marques de Almeida, ISCAC-Instituto Politécnico de Coimbra Carlos Barros, ISCAC-Instituto Politécnico de Coimbra Daniel Taborda, ESTGOH- Instituto Politécnico de Coimbra Deepa Chavan, Mittal Institute of Management, IT & Research, Mumbai, India Dessalegn Mihret, University Australia, Victoria Dharma Tintri Ediraras, Gunadarma University, Jakarta, Indonesia Eva Johansson, University West Trollhättan Sweden Evelio Hernández Pascual, UAGRM, Santa Cruz, Bolivia Fátima Geada Instituto Português de Auditoria Interna, Lisboa Filipe de Almeida Pontes, Observatório de Economia e Gestão da Fraude e IPAI Filipe de Sá-Soares, Universidade do Minho Francisco Guimarães, Universidade de Évora Halil Yurdugül, Hacettepe Üniversitesi, Ankara, Turkey Isabel Pereira, ESEL-Instituto Politécnico de Lisboa Izabela Maciejewska, Polish Institute of Certified Public Accountants, Poland Joanna Hernik, West Pomeranian University of Technology, Poland Jorge Bernardino, DEIS-ISEC, Instituto Politécnico de Coimbra Laura Alcaide Muñoz, University of Granada Louis Smidt, Tshwane University of Technology, South Africa Luís Montanha Rebelo, ISACA Lisbon Chapter e IPAI Makarand Upadhyaya, University of Jazan, Saudi Arabia Manuel Pedro Rodríguez Bolívar, University of Granada Manuela Aparicio, ISCTE- Instituto Universitário de Lisboa María Antonia García Benau, Universidad de Valencia

CISTI 2015 | 11

Maria Georgina Morais, IPAI e ISCAC, Instituto Politécnico de Coimbra Maria do Rosário Veiga, ISCTE-Instituto Universitário de Lisboa María Teresa Fernández Rodríguez, Universidad de Vigo Marius POPA, Academy of Economic Studies, Bucharest Nurettin Simsek, Ankara University, Turkey Paulo Gomes, ISACA Lisbon Chapter Philna Coetzee, Tshwane University of Technology, South Africa Rana Singh, Gulf Medical University, Ajman, UAE Raquel Garde Sanchez, University of Granada Raul M. S. Laureano, ISCTE- Instituto Universitário de Lisboa Rui Pedro Marques, Universidade de Aveiro, Portugal Susana Jorge, Universidade de Coimbra Vasa László, Kaposvar University, Hungary st

1 Workshop on Communication and Journalism on Social Networks Francisco Campos Freire, Universidade de Santiago de Compostela (org) Iván Puentes Rivera, Universidade de Vigo (org) Xosé López García, Universidade de Santiago de Compostela (org) Jenny Yaguache Quichimbo, Universidad Técnica Particular de Loja (org) Andrea Valencia Bermúdez, Universidade de Santiago de Compostela (org) Sabela Direito Rebollal, Universidade de Santiago de Compostela (org) Xosé Rúas Araújo, Universidade de Vigo (org) Xosé Antón Vila Sobrino, Universidade de Vigo (org) Valentín Alejandro Martínez Fernández, Universidade da Coruña (org) Abel Suing Romeo, Universidad Técnica Particular de Loja Alba Silva Rodríguez, Universidad Pontificia Católica de Ibarra Ana López Cepeda, Universidad de Castilla La Mancha Ana Cristina Correia Gil, Universidade dos Açores Ana Isabel Rodríguez Vázquez, Universidade de Santiago de Compostela Carlos Toural Bran, Universidade de Santiago de Compostela Carmen Costa Sánchez, Universidade de A Coruña Diana Rivera Rogel, Universidad Técnica Particular de Loja Eva Lavín de Las Heras, Universidad Camilo José Cela Manuel Gago Mariño, Universidade de Santiago de Compostela Manuel Goyanes Martinez, Universidad Carlos III María Isabel Punín Larrea, Universidad Técnica Particular de Loja Moisés Limia Fernández, Universidade do Minho Óscar Juanatey Boga, Universidade da Coruña Suzana Oliveira Barbosa, Universidade Federal da Bahia Xosé Pereira Fariña, Universidade de Santiago de Compostela Xosé Soengas Pérez, Universidade de Santiago de Compostela

CISTI 2015 | 12

st

1 Workshop on Gaming, Simulation and Play Ruth Contreras Espinosa, Universitat de Vic (chair) Jose Luis Eguia Gómez, Universitat Politècnica de Catalunya (chair) Licinio Roque, Universidade de Coimbra (chair) Ana Paula Afonso, Universidade de Coimbra (chair) Ana Amelia Carvalho, Universidade de Coimbra Ana Isabel Veloso, Universidade de Aveiro Angel Pretelin Ricardez, Instituto Politécnico Nacional, México Anna Puig, Universidade de Barcelona António Ramires, Universidade do Minho Arlete Dos Santos Petry, USP - Universidade de São Paulo Beatriz Marcano, Universidad Internacional de la Rioja Francisco Ignacio R. Domínguez, Universidade de Extremadura Francisco José G. Duran, Universidad de Alicante Fructuoso Silva, Universidade da Beira Interior Gonzalo Frasca, Universidad ORT de Montevideo Jose Luis Terron, Universitat Autònoma de Barcelona José Zagal, Universidad de Utah Lluis Solano Albajes, Universitat Politècnica de Catalunya Luís Paulo Reis, Universidade do Minho Lynn Rosalina G. Alves, Universidade do Estado da Bahia Óscar Mealha, Universidade de Aveiro Pedro Faria Lopes, Instituto Universitário de Lisboa Ramon Reig, Universitat de Vic, Universitat Central de Cataluña Roger Tavares, Universidade Federal do Rio Grande do Norte Rui Rodrigues, Universidade do Porto, FEUP Sergi Grau, Universitat de Vic Valter Alves, Instituto Politécnico de Viseu st

1 Workshop on ICT in the Improvement of the Quality of Life for Seniors António Pereira, Instituto Politécnico de Leiria (chair) Fernando Silva, Instituto Politécnico de Leiria (chair) José Ribeiro, Instituto Politécnico de Leiria (chair) Florentino Fdez-Riverola, Universidad de Vigo (chair) Antonio Fernández-Caballero, Universidad Castilla-LaMancha (chair) Arnulfo Aranis, Instituto Tecnológico de Tijuana, Catarina I. Reis, Instituto Politécnico de Leiria Elena Navarro, Universidad Castilla-LaMancha Flávio S. Corrêa da Silva, Universidade de São Paulo Henrique Gil, Instituto Politécnico de Castelo Branco Javier Jaen, Universitat Politècnica de Valencia Joao Alchieri, niversidade Federal do Rio Grande do Norte Jose Carlos Castillo Montoya, University Carlos III, Madrid

CISTI 2015 | 13

Jose Manuel Pastor Garcia, Universidad Castilla-LaMancha Nuno Costa, Instituto Politécnico de Leiria Rosalia Laza, Universidad de Vigo Silvana Gómez Meire, Universidad de Vigo Vitor Basto-Fernandes, Instituto Politécnico de Leiria st

1 Workshop on Quality of Life Information Systems Joaquim Gonçalves, Instituto Politécnico do Cávado e Ave (chair) Victor Carvalho, Optimizer (chair) Álvaro Rocha, Universidade de Coimbra Brígida Mónica Faria, Instituto Politécnico do Porto, ESTSP Luís Paulo Reis, Universidade do Minho Rui Lopes, Optimizer nd

2 ICTWays Workshop: Best Practices on ICT Ways in the Classroom Carlos Vaz de Carvalho, Instituto Politécnico do Porto (chair) Manuel Pérez Cota, Universidad de Vigo (chair) Mario Groppo, Universidad Tecnológica Nacional Miguel Ramón González Castro, ENCE, Energia y Celulosa

CISTI 2015 | 14

ENTIDADES ENVOLVIDAS Organização

AISTI Associação Ibérica de Sistemas e Tecnologias de Informação UA Universidade de Aveiro

Parceiros

Universidade de Coimbra Universidad de Trás-os-Montes e Alto Douro Faculdade de Engenharia da Universidade do Porto ISEGI da Universidade Nova de Lisboa Universidade de Aveiro Universidad de Santiago de Compostela Universidad de Vigo Universidad Politécnica de Madrid Universidad de Extremadura La Salle / Universitat Ramon Llull Universidad Politècnica de Catalunya

Apoios e Patrocínios

ANACOM Autoridade Nacional de Comunicações ATI - Asociación de Técnicos de Informática Câmara Municipal de Águeda Deloitte Portugal Empreend Associação Portuguesa para o Empreendedorismo Fundação Engenheiro António de Almeida IEEE Portugal Section

CISTI 2015 | 15

Prefácio A 5 (10ª Conferência Ibérica de Sistemas e Tecnologias de Informação) foi um evento técnico-científico realizado na Escola Superior de Tecnologia e Gestão de Águeda (ESTGA) da Universidade de Aveiro, entre 17 e 20 de Junho de 2015, numa organização conjunta da AISTI (Associação Ibérica de Sistemas e Tecnologias de Informação) e da Universidade de Aveiro. 5, com o título Sistemas e Tecnologias de Informação, são constituídas por dois volumes. No primeiro volume encontram-se os artigos (Full Papers) aceites para publicação na conferência principal e nos Workshops. No segundo volume encontram-se os artigos curtos (Short Papers) e os artigos poster (Poster Papers) da conferência e dos Workshops e ainda os artigos do Simpósio Doutoral. O primeiro volume foi publicado tanto em versão impressa como em CD-Rom. O segundo volume foi publicado somente em CD-Rom. Todas as contribuições publicadas foram selecionadas num processo de revisão por pares duplamente blindado, ou seja, os revisores não conheciam a identificação dos autores e vice-versa. Foram recebidas mais de quatro centenas de contribuições para avaliação pelas diferentes Comissões Científicas sendo que um total de 207 artigos foram aceites como full papers para publicação nas atas. Do programa da CISTI'2015 constaram 47 sessões de trabalho, distribuídas, entre outras, por sessões temáticas, sessões de Workshops específicas, sessões do Simpósio Doutoral e sessões plenárias. Paralelamente existiram momentos de interação vincadamente social, como por exemplo: o Jantar de Tradicional da Bairrada realizado na Quinta do Louredo e a Visita ao Museu Marítimo de Ílhavo, Workshop de Ovos Moles e passeio de Barco Moliceiro na Ria de Aveiro. Participaram nos quatro dias da conferência cerca de três centenas de pessoas. Agradecemos, na qualidade de coordenadores e organizadores da CISTI 2015, a todos os que direta ou indiretamente contribuíram para o sucesso desta edição da conferência (autores, comissões, patrocinadores, publicações associadas, participantes, etc.), fazendo votos de que possamos todos reencontrar-nos na próxima edição a realizar em Espanha. Os Editores: Álvaro Rocha, Universidade de Coimbra Arnaldo Martins, Universidade de Aveiro Gonçalo Paiva Dias, Universidade de Aveiro Luís Paulo Reis, Universidade do Minho Manuel Pérez Cota, Universidad de Vigo

CISTI 2015 | 16



  



 



 



  







 



 











  



 



CISTI 2015 | 17

  



 



 



 



 



  



 



    



 



 



 



  



CISTI 2015 | 18

  



   



   







 



  



  



 







   



  

CISTI 2015 | 19



  







 



 



 







     



 



  



  

CISTI 2015 | 20

 



 



  



 



    



   



 



    

CISTI 2015 | 21

  

  



 



 



 









  



 



 



 



 



CISTI 2015 | 22

  



   



 







  



 



 



CISTI 2015 | 23

Artigos Curtos da Conferência

CISTI 2015 | 24

Algoritmos híbridos para la resolución de Sudokus Hybrid algorithms for Solving Sudokus Ricardo Soto Pontificia Universidad Católica de Valparaíso, Chile Universidad Autónoma de Chile, Chile Universidad Central de Chile, Chile [email protected]

Broderick Crawford Pontificia Universidad Católica de Valparaíso, Chile Universidad Finis Terrae, Chile Universidad San Sebastián, Chile [email protected]

Cristian Galleguillos, Natalia Niño

Fernando Paredes

Pontificia Universidad Católica de Valparaíso, Chile [email protected], [email protected] El objetivo del puzle Sudoku es completar con dígitos, Resumo de 1 a 9, cada celda de una matriz cuadrada con 9 filas y 9 columnas, divida en 9 regiones de 3 × 3, tal que cada columna, fila, y región, contienen diferentes valores. Este documento reporta recientes resultados en la resolución de Sudokus realizadas por la combinación de metaheurísticas y AC3 la cual es una técnica de filtrado proveniente del dominio de la programación con restricciones. Palabras Clave

sudoku,metaheuristicas, AC3.

Abstract The aim of the Sudoku puzzle is filling with digits from 1 to 9 into each cell of a square matrix with 9 rows and 9 columns, divided into 9 3 × 3 regions, so that each column, row, and region contains have different values. This paper reports recent results for solving Sudokus achieved by combining metaheuristics and AC3 which is a filtering technique coming from the constraint programming domain. Keywords

sudoku, metaheuristics, AC3.

I.

INTRODUCCIÓN

Sudoku es un puzle de asignación lógica, consiste en completar una matriz cuadrada de 9 filas y 9 columnas, dividido en 9 regiones de 3 × 3, en donde para cada columna, fila, y región, contiene diferentes dígitos de 1 a 9. El puzle considera ciertas celdas previamente asignadas y que no pueden ser reemplazadas. La posición de estas celdas pre-asignadas es relevante, teniendo mayor impacto en la dificultad de la instancia que la cantidad de éstas. Una interesante clasificación de dificultad ha sido propuesta en [1]. Durante los últimos años, los puzles Sudoku han sido abordados con diferentes técnicas desde métodos exactos clásicos tales como programación con restricciones [2][3][4] y boolean satisfiability [5] hasta las más modernas metaheurísticas tales como genetic programming [1], simulated annealing [6], ant colony optimization [7], and particle swarm optimization [8]. Este documento reporta resultados recientes para este problema por la combinación de metaheurísticas y una potente

Universidad Diego Portales, Chile [email protected] técnica de filtrado, proveniente del dominio de la programación con restricciones llamada AC3. El principal propósito de las técnicas de filtrado es previamente al procedimiento de búsqueda, eliminar los valores que no conducen a ninguna solución factible. De esta forma, el trabajo de la metaheurísticas es facilitado a través de la reducción del dominio de las variables involucradas. Este artículo se encuentra estructurado según se explica a continuación. Las metaheurísticas utilizadas y AC3 son descritos en la sección II. Experimentos son ilustrados en la sección III. Finalmente, conclusiones y se entregan indicaciones sobre trabajo futuro. II.

METAHEURISTICAS Y AC3

La combinación de estas técnicas ha permitido resolver instancias más complejas del Sudoku con técnicas incompletas en tiempos razonables, disminuyendo la complejidad de las asignaciones de los dígitos, a través de la reducción de los dominios de las variables del problema en el proceso de filtraje. Este proceso de filtraje, es llevado a cabo por reforzar la propiedad de consistencia en el problema. Hemos utilizado la arco consistencia [12], la cual es una técnica de consistencia local más utilizadas en el dominio de la programación con restricciones. La integración de AC3 puede ser realizada con cualesquieras metaheurísticas. Efectivamente, esta integración se ha realizado con tabu search [9] y cuckoo search [11] con muy buenos resultados para la resolución de Sudoku, en este artículo consideramos también la metaheurística Artificial Fish Swarm Algorithm. A. Arco consistencia #3 (AC3) El algoritmo AC3 propuesto por Mackworth [12], es una técnica de filtrado del área de la programación con restricciones, la cual a través de las variables y sus respectivos dominios refuerza la consistencia de éstos según las restricciones del problema. De esta forma AC3 examina todos los arcos entre pares de variables y remueve los valores del dominio en que los valores no son consistentes. Se encuentra

CISTI 2015 | 25

compuesto de 2 procedimientos, los que se detallan en Figure 1. y Figure 2. . El propósito del algoritmo AC3 es revisar cada valor del dominio (línea 2), inspeccionando el espacio de todas las relaciones en búsqueda de soporte para la restricción en cuestión (línea 3). Si no existe dicho soporte, el valor es eliminado del dominio. El algoritmo revise es encargado de garantizar que todo dominio es arco consistente. A continuación se presentan los algoritmos de AC3

real tales como los conocidos problemas de la literatura académica como el problema del vendedor viajero, el problema de la mochila, el problema de la asignación cuadrática, o el problema de asignación de horarios. La idea principal de TS recae en el uso de búsqueda local, que permite iterativamente moverse de una potencial solución a otra prometedora, hasta que el criterio de detención haya sido alcanzado. Este procedimiento es complementado con una estructura de memoria llamada lista tabú, la cual es la principal característica que distingue TS de otros métodos incompletos. El objetivo de la estructura de memoria es: Ayudar a escapar de áreas con malas soluciones Evitar volver a soluciones recientemente visitadas En la siguiente imagen se presenta el algoritmo de TS

Figure 1. Algoritmo Revise

Figure 2. Algoritmo AC3/GAC3

El problema de Sudoku puede ser declarado como un constraint network, en donde:

jésima j

es la secuencia de variables, siendo cada celda ubicada en la fila iésima y la columna de la matriz de Sudoku, para todo y .

es el conjunto de dominios, donde dominio de la variable .

es el

es el conjunto de restricciones definidas como: Valores distintos en filas y columnas

Figure 3. Algoritmo de Tabu Search

El algoritmo recibe como entrada la solución inicial. En la línea 3 de la Figure 3. una estructura de bucle controla las iteraciones hasta que la condición de detención es alcanzada. En la quinta línea se generan los candidatos de soluciones, los que posteriormente son analizados para elegir el mejor. En la línea 11, el costo del mejor candidato es comparado con el mejor global, si este es mejor, pasa a ser el nuevo global. Posteriormente la lista tabú es actualizada. Finalmente, retorna la mejor solución encontrada.

Valores distintos en regiones

De esta forma, una instancia de Sudoku puede ser procesado por el algoritmo AC3, recibiendo como entrada la red X, D, C y retornando una solución equivalente junto al dominio filtrado. B. Tabu Search (TS) Esta metaheurística fue definida por Fred Glover [10] para resolver problemas de optimización combinatorial. Ha sido exitosamente usado para abordar distintos problemas de la vida

C. Cuckoo Search (CS) El algoritmo de Cuckoo Search fue desarrollado por Yang en 2009 [14], basándose en el comportamiento parásito de las aves cuco a la hora de depositar sus huevos en nidos ajenos. Se asocia cada posible solución del problema a las coordenadas de un nido que es ocupado. De esta forma, se parte de un conjunto inicial de nidos en los que se ha depositado un huevo. De todos ellos, los mejores huevos pasarán desapercibidos y sobrevivirán, pero los peores huevos tendrán una probabilidad de ser descubiertos y no sobrevivir. Estos nidos que han fallado, se sustituirán por nuevos nidos,

CISTI 2015 | 26

comúnmente mediante una función de desplazamiento llamada Lévy Flights.

su propio sistema para así encontrar el óptimo del cardumen (población).

El algoritmo posee tres reglas básicas para definir su comportamiento:

En AFSA la consistencia de la comida en el agua es definida como la función objetivo, y el estado de un AF es la variable a optimizar [13].

Cada cuco pone un único huevo cada vez, y lo deja en un nido elegido al azar Los mejores nidos con mayor calidad del huevo pasarán a la siguiente generación El número de nidos disponibles en cada generación está predefinido, y los huevos serán descubiertos y descartados con una probabilidad entre 0 y 1. Por tanto, una fracción del total de los nidos será sustituida por nidos nuevos cada generación.

El cardumen es inicializado con valores aleatorios, línea 1 de Fig. 5, posteriormente se calculan las distancias entre los peces del cardumen con la función update_distance. Se itera, escogiendo cada pez del cardumen, posteriormente se ejecutan los cuatro comportamientos con el objetivo de mejorar el valor de fitness.

Este algoritmo, detallado en Figure 4. , al poseer pocos parámetros (n y pa) para su configuración, el tuning de parámetros requerido es menos costoso que la mayoría de metaheurísticas basadas en población.

Figure 5.

Figure 4. Algoritmo de Cuckoo Search

El proceso de búsqueda se inicia generando una población aleatoria inicial de nidos anfitriones. El algoritmo itera hasta que se alcanza el criterio de detención. En la línea 4, una nueva solución es creada, a través de una función de desplazamiento, la nueva solución es comparada con otra aleatoriamente, si la primera es mejor remplazará a la segunda solución. Los peores nidos son abandonados dependiendo de una probabilidad . Para esta metaheurística, luego de experimentar, se detectó que función de desplazamiento no era suficiente para la resolución del problema, por lo que se decidió integrar en esta función los operadores geométricos. La idea de utilizar los operadores geométricos, es la habilidad de corregir los movimientos en un espacio de búsqueda discreto. Con CS se utilizaron los operadores partially matched crossover, geometric crossover, y feasible geometric mutation. D. .Artificial Fish Swarm Algorithm (AFSA) Este algoritmo, desarrollado por Li en el 2002, está basado en la simulación del comportamiento colectivo de un banco de peces. AFSA simula el comportamiento de un solo pez artificial (Artificial Fish, AF), para luego construir un cardumen de AF. Cada AF buscará su propia solución y pasará la información en

Algoritmo de Artificial Fish Swarm Algorithm

Primero se ejecuta el comportamiento de Persecución (línea 5); si este no mejora el valor de fitness del pez, entonces se intentará mejorar con el Comportamiento de Caza (línea 7); si este tampoco lo mejora, se ejecutará el Comportamiento de Enjambre (línea 9) y finalmente si ninguno de los comportamientos mejoró la solución, se intentará con el Comportamiento de Salto (línea 11). Finalmente, si el fitness del pez escogido es mejor que el del óptimo del cardumen, entonces éste se convierte en el nuevo óptimo global, y se actualizan todas las distancias entre los peces con la función update_distance. E. Integración de las metaheurísticas y AC3 En el documento se presentan 3 metaheurísticas, las cuales difieren de su tipo de representación de solución. TS es parte de las basadas en , a diferencia de CS y AFSA que son basados en población. Para estos 2 enfoques, se ha utilizado AC3 como técnica de filtrado en un pre-proceso de los dominios. Pero con TS se ha integrado en el proceso de búsqueda al momento de generar los candidatos, para así descartar en el momento soluciones inviables, utilizando solo candidatos con soluciones parcialmente válidas. Cuando AC3 reduce un dominio, y es el único elemento en él, el elemento es considerado parte de la solución y pasa a ser asignado a la variable mejorando la calidad de la solución.

CISTI 2015 | 27

De esta forma la integración funciona de la siguiente forma. El algoritmo recibe inicialmente la solución con las asignaciones fijas, esta instancia es representada como una red de restricciones X, D, C . AC3 recibe como entrada la red y actualiza el conjunto de dominios D, eliminando los valores que jamás pertenecerán a una solución. Los dominios filtrados son utilizados para generar las soluciones iniciales y acotar las asignaciones de las variables en cada algoritmo, para así disminuir la cantidad de asignaciones mal efectuadas. III.

Una clara indicación para el trabajo futuro es la mejora de las funciones de AFSA para mantener las celdas pre-asignadas sin ser afectadas por el procedimiento de búsqueda, y solo trabajar con el espacio que queda por asignar, similar a como se hizo con los operadores geométricos que se usan en cuckoo search.

RESULTADOS EXPERIMENTALES

TABLE I. representan los resultados obtenidos por los híbridos AC3-TS, AC3-CS con Operadores Geométricos, AC3-AFSA y además comparamos con GA[1], sin considerar un máximo de iteraciones. A diferencia en TABLE II. se han considerado como máximo 100 000 iteraciones. TABLE I.

PORCENTAJE DE SUDOKUS EXISTOSAMENTE RESUELTOS POR LAS METAHEURISTICAS CONSIDERANDO ITERACIONES ILIMITADAS

Instancia

realizadas, debido a que existen celdas fijas las cuales no pueden ser modificadas y esto afectaba al rendimiento de la búsqueda.

Iteraciones Ilimitadas

AGRADECIMIENTOS Cristian Galleguillos es Beneficiario Beca Postgrado PUCV 2015. Ricardo Soto es apoyado por CONICYT / FONDECYT / INICIACION / 11130459. Broderick Crawford es apoyado por CONICYT / FONDECYT / REGULAR / 1140897. Fernando Paredes es apoyado por CONICYT / FONDECYT / REGULAR / 1130455. REFERÊNCIAS BIBLIOGRÁFICA [1]

AC3-TS

AC3-CS

AC3-AFSA

GA

Hard a

100%

100%

0%

100%

[2]

Hard b

100%

100%

0%

0%

[3]

Hard c

100%

100%

0%

0%

on Adaptive and Learning Systems, 2006, pp. 122 126. [4]

PORCENTAJE DE SUDOKUS EXISTOSAMENTE RESUELTOS POR LAS METAHEURISTICAS CONSIDERANDO 100,000 ITERACIONES

TABLE II.

Instancia

100,000 Iteraciones

[5]

AC3-TS

AC3-CS

AC3-AFSA

GA

[6]

Hard a

100%

100%

0%

0%

[7]

Hard b

100%

100%

0%

0%

Hard c

100%

100%

0%

0%

En general, los algoritmos híbridos, exceptuando AFSA el cual solo pudo resolver instancias easy y médium; superan el rendimiento del algoritmo genético, el cual ha resultado con éxito solo solo en 1 de 3 instancias hard [1]. Un resultado más extendido puede ser revisado en [9] y [11]. IV.

CONCLUSIONES

En este documento hemos presentado resultados recientes para la resolución de Sudokus haciendo uso de la combinación de metaheurísticas y AC3. Esta última es una poderosa técnica de filtrado proveniente de la programación con restricciones, siendo su objetivo eliminar, previamente a el proceso búsqueda, los valores de los dominios que jamás conducirán a una solución factible. De esta forma, el trabajo de la metaheurísticas es facilitado, y como consecuencia el proceso de resolución es acelerado. Los resultados experimentales validan este enfoque, en donde las mejores soluciones han obtenido por el hibrido AC3-tabu search y AC3-cuckoo search con operadores geométricos. Claramente AFSA, a través de todas sus funciones de mejora de solución no fue capaz de corregir las asignaciones mal

Mantere, T., Koljonen, J., Solving, rating and generating sudoku puzzles with GA . IEEE Congress on Evolutionary Computation. IEEE, 2007, pp. 1382 1389. Rossi, F., van Beek, P., Walsh, T., Handbook of Constraint Programming, Elsevier , 2006. ion by belief

[8]

Workshop on Modelling and Reformulating Constraint Satisfaction Problems, 2005, pp. 13 27. Symposium on Artificial Intelligence and Mathematics (ISAIM), 2006. vol. 13, no. 4, pp. 387 401, 2007. International Conference on Emerging Technologies. IEEE Computer Society, 2009, pp. 13 16. for the Sudoku Computation Conference. ACM Press, 2007, pp. 118 125.

[9]

hybrid ac3Syst. Appl., vol. 40, no. 15, pp. 5817 5821, 2013. [10] F. Glover and M. Laguna, Tabu Search. Kluwer Academics Publishers, 1997. [11] Pre-filtered Cuckoo Search Algorithm with Geometric Operators for ID 465359, 2014. [12]

Intelligence, vol. 8, no. 1, pp. 99 118, 1977. [13] L. X. Li, Z. J. Shao, J.X. Qian. An Optimizing Method Based on Autonomous Animate: Fish Swarm Algorithm. System Engineering Theory and Practice, 22(11), pp. 32-38, 2002. [14] Xin-She Yang and Suash Deb. Cuckoo Search via Lévy Flights. Proc. Of World Congress on Nature and Biologically Inspired Computing, 2009

CISTI 2015 | 28

Implementación de Prototipo de Interface de Lenguaje Natural a Base de Datos Implementation of Prototype of Natural Language Interface to Database Martín Muñoz del Río Universidad Nacional de Ingeniería Lima, Perú [email protected]

José Luis Castillo S. Universidad de Alcalá España [email protected]

En la presente investigación se busca realizar un Resumo traductor de lenguaje natural español a SQL utilizando tanto el esquema de la base de datos como información del dominio, la cual se ingresará por medio de un archivo CSV. Para ello el sistema utilizará las preposiciones, artículos y principales adverbios del lenguaje español como parte de su análisis y se utilizará un algoritmo de aproximación, que de acuerdo a las palabras que se entiendan de la entrada del usuario, buscará generar una sentencia SQL. Por lo tanto, el problema que la presente investigación pretende resolver es la dificultad que tienen los usuarios no técnicos para acceder a las bases de datos, implementando para ello una interfaz en lenguaje natural. Palabras Clave - SQL; Interface de Lenguaje Natural; Base de datos; Lenguaje Español Abstract In the present investigation we pretend to make a Spanish natural language translator to SQL using both the database schema and domain information, which is entered through a CSV file. For that end, the system uses prepositions, articles and main adverbs of Spanish language as part of their analysis and an approximation algorithm is used, it means, according to the words that are understood for the user input, the system will try to generate an SQL statement. Therefore, the problem wanted to be solved with this research is the difficulty that non-technical users have when doing queries to a database, implementing, for that reason, an interface in natural language. Keywords - SQL; Natural Language Interface; Database; Spanish Language.

I.

INTRODUCCIÓN

Los sistemas de preguntas y respuestas aspiran a ser la siguiente generación en la comunicación entre humanos y computadoras. [9] Debido a que la recuperación de información a partir de las bases de datos requiere conocimientos de lenguajes de programación específicos, existe la necesidad de tener un sistema que permita a los usuarios generar consultas a partir de lenguaje natural. [9]

Esta necesidad fue notada ya en la década de 1960, ISNLIS (LUNAR SCIENCE NATURAL LANGUAGE INFORMATION SYSTEM) [10] fue uno de los primeros sistemas experimentales de recuperación de información por medio de lenguaje natural. El objetivo de la presente investigación es desarrollar el prototipo de una interface de lenguaje natural español a SQL (Structured Query Language) con el fin de facilitar las consultas a bases de datos por personas no técnicas (sin conocimiento de SQL). El prototipo se implementará en el lenguaje de programación python. II.

BACKGROUND Y REVISIÓN DE LA LITERATURA

A. Background Existen trabajos previos que buscan conseguir la recuperación de la información de una base de datos por medio de lenguaje natural, algunos son independientes del dominio, otros dependientes [7]. Una subclasificación de los sistemas de interfaz de lenguaje natural para consultar bases de datos dependientes del dominio es según su grado de portabilidad y reconfigurabilidad [7]. Entre otros cabe mencionar: No reconfigurables: Están diseñados de forma ad-hoc para un particular dominio de problemas (base de datos). Reconfigurable: Dependiente del dominio pero es apto para ser reconfigurado para una base de datos que pertenece a otro dominio. Auto-reconfigurable: Son muy interesantes desde el punto de vista del costo de implementación debido a que se reconfigura al conectarse a una base de datos. Por lo tanto, los sistemas independientes del dominio simplemente convierten una consulta en lenguaje natural a su equivalente en SQL, no presentan detección de errores sino en la base de datos, lo cual hace más lento su trabajo. [7] B. Revisión de la literatura Nikos Papadakis, Pavlos Kefalas y Manolis Stilianakakis [9] presentan una herramienta capaz de transformar simples querys formulados en lenguaje natural (inglés) a su query SQL

CISTI 2015 | 29

equivalente. La herramienta consiste en un conjunto de componentes intercomunicados con roles claramente definidos. El sistema está compuesto por: Un archivo con el esquema de la base de datos a la cual se van a realizar consultas. El archivo SQL keys que contiene la relación de frases o palabras con palabras reservadas de SQL. El archivo Query que contiene el query ingresado por el usuario. Dispatcher, se encarga de procesar el Esquema y SQL keys para producir el análizador léxico. Lexical Analyser, se encarga del análisis léxico del query ingresado. Syntax Analyser, realiza el análisis sintáctico con el producto del análizador léxico y la gramática. Final Process, Procesa el resultado del analizador sintáctico con ciertas reglas. SQL query, imprime el SQL query final. Miguel Llopis y Antonio Ferrándes [7] exploran algunos de los enfoques y retos mayores para construir Natural Language Interfaces to Query Databases (NLIDBs) y proponen técnicas para reducir costos de implementación y adopción incluyendo servicios para la autoría de querys (resaltado, detección de errores, entre otras características), el sistema AskMe propuesto genera dinámicamente el analizador léxico, sintáctico y semántico con el fin de reducir los costos de adopción para una nueva base de datos, para conseguir generar dinámicamente los analizadores utiliza ontologías las cuales si no se encuentran ya desarrolladas las implementa de forma automática basándose en el esquema de la base de datos. También realiza una clasificación de los enfoques utilizados para la construcción de NLIDBs. Nikos Papadakis, Pavlos Kefalas y Aris Apostolakis [8] proponen una herramienta con la capacidad de, partiendo de un subconjunto del inglés, generar sentencias SQL. El sistema recibe de entrada además del query en un subconjunto bien definido del inglés, el esquema de base de datos.

un conjunto de ejemplos de frases en español en su forma original y en su forma simplificada, la simplificación consiste principalmente en partir oraciones complejas en otras más sencillas preservando el significado y la corrección sintáctica. El trabajo es orientado a la futura construcción de un sistema que tenga la capacidad de realizar simplificación de textos en español de forma automática, ayudándose con los datos generados en esta investigación posiblemente por medio de machine learning o aplicando las reglas utilizadas o alguna otra tecnología. La utilidad de una simplificación automática de texto es que serviría como pre procesado para los trabajos de procesamiento de lenguaje natural, facilitando su tarea. Alexander A. Razonerov y Vladimir A. Fomichov [1] hacen mención del uso de lenguaje natural como complemento o alternativa a las interfaces gráficas de usuario, en especial en los casos en que se trata de un software complejo con muchas opciones. Zsolt T. Kardkovács [11], abordan el tema de la conversión de una estructura presente en algunos idiomas, difícil de interpretar de forma automática, las relaciones genitivas, la cual es una de las estructuras semánticas más complejas del idioma inglés y Hungaro (idioma al cual está orientada la investigación), describe como convertir de una oración con relación genitiva a sentencias SQL. Frank S.C. Tseng y Chun-Ling Chen [4] investigan Como representar en un diagrama de clases UML consultas en lenguaje natural con semántica difusa, propone un método para realizar un mapeo de construcciones en lenguaje natural al correspondiente diagrama de clases, y luego aplicar una metodología para realizar la conversión de las consultas en lenguaje natural a SQL. III.

ARQUITECTURA PROPUESTA

Davide Cali, Antonio Condorelli, Santo Papa, Marius Rata y Luca Zagarella [3] realizan una comparativa entre el acceso a sistemas de información geográficos (GIS) utilizando una interfaz gráfica estándar y el acceso utilizando una interfaz de usuario basada en lenguaje natural (inglés)

El aporte propuesto consiste en diseñar e implementar un algoritmo ad-hoc capaz de traducir consultas en lenguaje natural español a consultas SQL.

Carol Friedman, Thomas C. Rindflesch y Milton Corn [2] comentan el workshop "Natural Language Processing: State of the art and prospects for signifcant progress, a workshop sponsored by the National Library of Medicine", en este workshop se expuso sobre el estado del arte en procesamiento de lenguaje natural del idioma inglés, tanto orientado a medicina como en general. Se buscaba un enfoque que: Pueda trabajar con diversas expresiones lingüísticas. Explote la estructura del lenguaje y ontologías para un mayor entendimiento. Combine métodos simbólicos con estadísticos.

También es un aporte el filtrado de palabras ingresadas partiendo de lo obtenido en el análisis y su utilización para la generación de SQL.

Leila Safari y Jon D. Patrick [6] mencionan que con el fin de elevar el nivel de cuidados médicos de la comunidad es necesario, desarrollar herramientas para extraer conocimiento de datos clínicos. Para lograrlo se desarrolló un lenguaje clínico especial llamado CliniDAL, luego proponen un algoritmo para convertir de (Restricted Natural Language Query) RNLQ de CliniDAL a SQL. José Camacho Collados [5], en su trabajo "Splitting Complex Sentences for Natural Language Processing Applications: Building a Simplified Spanish Corpus" presenta

Entre los aportes realizados cabe mencionar el análisis de las palabras en español ingresadas utilizando para esto el archivo de dominio adicionalmente a información ya preestablecida del lenguaje español.

A. Arquitectura La herramienta propuesta consiste en un conjunto de componentes interconectados, que detallamos a continuación: dominio.csv Contiene el esquema de la base de datos e información del dominio, brinda diversas opciones para relacionar a cada nombre de tabla o campo, por ejemplo: relacionarles un verbo, definir sinónimos, entre otros. El propósito de este archivo es permitir al usuario ingresar un amplio rango de lenguaje natural, mientras más extenso, detallado y riguroso sea el archivo de dominio más completo será el lenguaje natural que el sistema se encontrará en capacidad de interpretar. Esta información de dominio es independiente a cada base de datos, por lo cual para facilitar su

CISTI 2015 | 30

generación se propone como trabajo futuro realizar un asistente que permita construir de manera rápida, sencilla y óptima este archivo de dominio. datos_espanol.py Contiene diccionarios en el lenguaje de programación python con artículos, preposiciones, adverbios, y algunos verbos del lenguaje español, estos diccionarios tienen como utilidad, además de reconocer estas palabras, clasificar. Por ejemplo, partiendo de la palabra encontrada se es capaz de determinar si se trata de un adverbio de lugar, o de un artículo en singular, o de una preposición de tiempo. prototipo.py Contiene el programa que solicita la consulta en lenguaje natural, la analiza y finalmente la convierte a SQL.

palabra no tiene que estar escrita exactamente igual, por ejemplo INCLUSO es identificado como el adverbio INCLUSIVE (INCLUSIVE se encuentra en datos_espanol.py). El análisis genera un diccionario donde los tokens son las claves y los contenidos son el resultado del análisis para cada token respectivo. Por lo tanto, se indica información como por ejemplo: ¿Se trata de nombre de campo? ¿Se trata de nombre de tabla? ¿Es un sinónimo de nombre de campo o de tabla? ¿Se encuentra en plural? ¿Es un verbo de los que se encuentran en datos_espanol.py? ¿Es un verbo relacionado a un campo en dominio.csv? ¿Se reconoció correctamente el token? El resultado del análisis realizado se imprime en pantalla. Luego se filtran las palabras que se utilizarán para la generación del SQL, solamente se considera relevante para ese proceso un subconjunto de las palabras ingresadas, el filtro se realiza de acuerdo al análisis realizado. Es decir eliminando palabras como adverbios, preposiciones, artículos y verbos quedan solo nombres de tablas, campos, operadores lógicos, operadores de comparación y datos, entonces con lo que queda se aproxima la consulta que el usuario deseaba formular y se genera el SQL correspondiente. Finalmente el SQL es generado e impreso en pantalla. C. Limitaciones El prototipo recibe como entrada lenguaje natural solo en mayúsculas y sin signos de puntuación, interrogación, tildes ni eñes, ni ningún otro carácter especial. Entre las limitaciones del prototipo actual se encuentra que solo es capaz de generar SQL de la forma:

Figure 1. Arquitectura del Sistema

Select lista_campos_o_* from tabla (con o sin inner join)

B. Proceso El prototipo empieza extrayendo la información del dominio, luego solicita una entrada al usuario la cual divide en tokens (unidades sintácticas), para esto separa las palabras por espacios en blanco y más adelante, utilizando un algoritmo recursivo, une los tokens que considera son sólo uno (aun si tienen espacios en blanco internos). Luego realiza un análisis en el cual busca reconocer las palabras ingresadas como alguna palabra del lenguaje español precargada en el sistema (artículos, preposiciones, adverbios y algunos verbos comúnmente usados) o como una palabra del dominio, por ejemplo nombre de tabla, nombre de campo. En este reconocimiento el prototipo se encuentra en la capacidad de reconocer una palabra en otra no exactamente igual, basándose en las primeras letras que lo conforman, ejemplo: ALQUILERES como ALQUILER, es decir es capaz de lematizar las palabras procesadas con un análisis léxico.

Adicionalmente es capaz de generar un where. Las limitaciones se deben principalmente a que es un trabajo aun en curso, siendo de momento un prototipo que se mejorará siguiendo las recomendaciones que planteamos luego de los resultados que presentamos. IV.

RESULTADOS

El prototipo se probó con un archivo de dominio para el siguiente esquema:

El análisis léxico consta de dos pasos: 1) Separar la entrada por espacios en blanco. 2) Unir palabras aun si se encuentran separadas con espacios en blanco si se considera que juntas son un solo token (unidad sintáctica). Para esta fase se utiliza un algoritmo recursivo. En el ejemplo actual en dominio.csv existen tokens de más de una palabra, este paso es útil para identificarlos correctamente. Una vez que se obtienen los tokens se realiza la identificación de cada uno de estos con alguna palabra de dominio.csv o de datos_espanol.py, la

CISTI 2015 | 31

Consulta en Lenguaje Natural: CUALES HUESPEDES SE LLAMAN MARTIN; Sentencia SQL generada: SELECT * FROM HUESPED where NOMBRE = 'MARTIN' Consulta en Lenguaje Natural: CUALES HUESPEDES SE LLAMAN APROXIMADAMENTE MARTIN; Sentencia SQL generada: SELECT * FROM HUESPED where NOMBRE LIKE '%MARTIN%' Consulta en Lenguaje Natural: HUESPEDES DE NOMBRE APROXIMADAMENTE PEDRO Y EDAD MAYOR A 20; Sentencia SQL generada: SELECT * FROM HUESPED where NOMBRE LIKE '%PEDRO%' AND EDAD > '20' Consulta en Lenguaje Natural: HUESPEDES APELLIDADOS HINOSTROZA Y EDAD MAYOR A 60 O MENOR A 18; Sentencia SQL generada: SELECT * FROM HUESPED where APELLIDO = 'HINOSTROZA' AND EDAD > '60' OR EDAD < '18' Figure 2. Esquema de la base de datos con la que se realizarán pruebas

Consulta en Lenguaje Natural: HUESPEDES DE APELLIDO GOMEZ; Sentencia SQL generada: SELECT * FROM HUESPED where APELLIDO = 'GOMEZ'

A. Pruebas Realizadas con el Prototipo Se obtuvo resultados satisfactorios para las siguientes consultas (se muestra primero la consulta ingresada en español y luego de un punto y coma el SQL generado), siendo las pruebas probadas inicialmente por los desarrolladores y luego por usuarios en general. Así por ejemplo:

Consulta en Lenguaje Natural: CUANTOS ALQUILERES HAN SIDO DEBIDOS AL CORREO; Sentencia SQL generada: SELECT * FROM ALQUILER where FUENTE_INFORMACION = 'CORREO'

Consulta en Lenguaje Natural: NOMBRE Y APELLIDO DE HUESPEDES DE NOMBRE MARTIN; Sentencia SQL generada: SELECT NOMBRE,APELLIDO FROM HUESPED WHERE NOMBRE = 'MARTIN' Consulta en Lenguaje Natural: EDAD DEL HUESPED LLAMADO JOSE Y DE APELLIDO HINOSTROZA; Sentencia SQL generada: SELECT EDAD FROM HUESPED WHERE NOMBRE = 'JOSE' AND APELLIDO = 'HINOSTROZA' Consulta en Lenguaje Natural: CUARTOS DOBLES; Sentencia SQL generada: SELECT * FROM HABITACION where TIPO_HABITACION = 'DOBLE' Consulta en Lenguaje Natural: ALQUILERES; Sentencia SQL generada: SELECT * FROM ALQUILER Consulta en Lenguaje Natural: HUESPEDES INGENIEROS; Sentencia SQL generada: SELECT * FROM HUESPED where PROFESION = 'INGENIERO' Consulta en Lenguaje Natural: QUE HUESPEDES EJERCEN LA INGENIERIA; Sentencia SQL generada: SELECT * FROM HUESPED where PROFESION = 'INGENIERO' Consulta en Lenguaje Natural: QUE HUESPEDES SON INGENIEROS O ARQUITECTOS; Sentencia SQL generada: SELECT * FROM HUESPED where PROFESION = 'INGENIERO' OR PROFESION = 'ARQUITECTO'

Consulta en Lenguaje Natural: HUESPEDES CUYO APELLIDO ES TIRADO; Sentencia SQL generada: SELECT * FROM HUESPED where APELLIDO = 'TIRADO' Consulta en Lenguaje Natural: QUE ALQUILERES ESTAN EN ESTADO NO CONFIRMADO O EN ESPERA; Sentencia SQL generada: SELECT * FROM ALQUILER where ESTADO = 'NO CONFIRMADO' OR ESTADO = 'EN ESPERA' Consulta en Lenguaje Natural: HUESPEDES LLAMADOS MARTIN JOSE MANUEL; Sentencia SQL generada: SELECT * FROM HUESPED where NOMBRE = 'MARTIN JOSE MANUEL' Consulta en Lenguaje Natural: ALQUILER DE HUESPED LLAMADO MARTIN; Sentencia SQL generada: SELECT * FROM ALQUILER INNER JOIN HUESPED ON ALQUILER.ID_HUESPED = HUESPED.ID_HUESPED WHERE NOMBRE = 'MARTIN' Consulta en Lenguaje Natural: HUESPEDES MAYORES A 50 DE EDAD; Sentencia SQL generada: SELECT * FROM HUESPED WHERE EDAD > '50' Todos los resultados anteriores fueron correctos, lo que demuestra la efectividad del prototipo, sin embargo se detectan consultas ambiguas que generan resultados incorrectos, por ejemplo: Consulta en Lenguaje Natural: HUESPEDES APELLIDADOS HINOSTROZA Y LLAMADOS JUAN; Sentencia SQL generada: SELECT * FROM HUESPED where APELLIDO = 'HINOSTROZA' AND NOMBRE = 'JUAN'

CISTI 2015 | 32

En esta última sentencia, simplemente coloca las condiciones en el orden en que se encuentra, sin paréntesis. Este resultado se considera aceptable aunque no completamente correcto. Por lo tanto, es necesario realizar más pruebas, pero con las ya realizadas por los usuarios, se comprueba que el prototipo es de utilidad, aunque es factible de ser mejorado como se observa en la siguiente prueba (la cual falla): HUESPEDES MAYORES A 50; SELECT * FROM HUESPED A continuación un gráfico con los resultados.

Resultados

Además, es posible incrementar la capacidad de generación de código SQL del algoritmo para que genere SQL más complejo, utilizando sentencias del tipo group by, having, con funciones de SQL y consultas anidadas. De esta forma, se genera más información durante el análisis de la que se utiliza para la generación del SQL, siendo factible utilizar más de la información generada, para conseguir una generación de código SQL más complejo, siendo además deseable brindar una retroalimentación al usuario, indicándole que partes de su consulta no son muy precisas. Como trabajo futuro se propone incluir todas estas mejoras al prototipo y también construir una herramienta que asista a la persona encargada de crear el archivo de dominio, mejorando de esta manera el prototipo desarrollado. REFERENCIAS BIBLIOGRÁFICAS [1]

Buenos 17

Aceptable 1

Error 1

Figure 3. Resultados

Adicionalmente es recomendable realizar pruebas con otras bases de datos (otro dominio). Siendo la calidad de los sinónimos procesados por el prototipo, dependiente del componente de entrada del esquema de dominio, siendo por tanto limitado y mejorable en versiones futuras. V.

CONCLUSIONES Y TRABAJOS FUTUROS

Se concluye que es posible realizar una interfaz de lenguaje natural español a base de datos con un amplio rango de comprensión del lenguaje español, utilizando un método de aproximación. Como trabajo futuro es factible mejorar el tratamiento de palabras que no se reconocieron, evitando que produzcan errores en el SQL generado y deduciendo cuando son valores. Es factible también brindar retroalimentación al usuario, si se considera necesario, antes de la generación del código SQL, evitando la generación de SQL mal formado.

Alexander A. Razonerov, Vladimir A. Fomichov, "The Design of A Natural Language Interface for File system Operations on The basis of A structured Meanings Model", PRocedia Computer Science 31 (2014) 1005-1011. [2] Carol Friedman, Thomas C. Rindflesch, Milton Corn, "Natural Language Processing: State of the art and prospects for signifcant progress, a workshop sponsored by the National Library of Medicine" Journal of Biomedical Informatics 46 (2013) 765-733 [3] Davide Cali, Antonio Condorelli, Santo Papa, Marius Rata, Luca Zagarella "Improving intelligence through use of Natural Language Processing. A comparison between NLP interface and traditional visual GIS interfaces.", Procedia Computer Science 5 (2011) 920-925. [4] Frank S.C. Tseng, Chun-Ling Chen, "Extending the Uml concepts to trasform Natural language queries with fuzzy semantics into SQL", Information and Software Technology 48 (2006) 901-914 [5] José Camacho Collados, "Splitting Complex Sentences for Natural Language Processing Applications: Building a Simplified Spanish Corpus", Procedia - Social and Behavioral Sciences 95 (2013) 464-472. [6] Leila Safari, Jon D. Patrick, "Restricted natural Language based querying of clinical databases", Journal of biomedical Informatics 52 (2014) 338-353. [7] Miguel Llopis, Antonio Ferrándes, "How to make a natural language interface to query databases accesible to everyone: An example", Computer Standars & Interfaces 35 (2013) 470-481. [8] Nikos Papadakis, Pavlos Kefalas, Aris Apostolakis, "Access to relational databases in natural language", IADIS International Conference Applied Computing (2010) [9] Nikos Papadakis, Pavlos Kefalas, Manolis Stilianakakis, "A tool for access to relational databases in natural language", Expert Systems with Applications 38 (2011) 7894-7900. [10] Woods, W. A. (1973). Progress in natural language understanding: An 8, national computer conference and exposition (pp. 441 450). New York, NY, USA: ACM. [11] Zsolt T. Kardkovács, "On the transformations of sentences with Genitive Relations to SQL queries", Data & Knowledge Engineering, Volume 61, Issue 3, June 2007

CISTI 2015 | 33

Condiciones generales en la contratación electrónica General terms and conditions in the electronic contracting Esperanza Gómez Valenzuela Universidad de Jaén Jaén, España [email protected] Resumen: El uso de las nuevas tecnologías es un recurso clave que posibilita la realización de transacciones a través de Internet. Esta vía, supone un nuevo escenario para los operadores económicos que facilita la formación de contratos de diversa índole. En este contexto es propicia y habitual la utilización de condiciones generales de la contratación -CGC-. En este trabajo abordaremos la problemática que surge en relación con el régimen jurídico de este tipo de cláusulas en lo que respecta a la contratación electrónica internacional. Palabras Clave: Contratación electrónica, condiciones generales de la contratación, cláusulas abusivas, shrink-wrap contract, click-wrap. Abstract: The use of new technologies that a key resource is possible to perform transactions over the Internet . This way, marks a new stage for economic operators for the formation of contracts. In this context is favorable and habitual use of general terms -CGC-. In this work we address the problem that arises in connection with the legal system is such clauses with regard to the international electronic contracting. Keywords: Electronic contracting, general conditions of contract, unfair terms, shrink-wrap contract , click-wrap .

I.CONDICIONES GENERALES DE LA CONTRATACIÓN: CUESTIONES PRELIMINARES Estas cláusulas son redactadas por el empresario para utilizarlas en todos los contratos que vaya a realizar con sus clientes, (Alfaro Águila-Real, 1997, 870). Las CGC prevén todos los aspectos de la relación jurídica 1, con ello se facilita la perfección de un gran número de contratos en poco tiempo y con unos medios personales muy reducidos, lo que minimiza costes y permite ofrecer productos o servicios más baratos. Por este motivo, es habitual la utilización de estas cláusulas en los contratos electrónicos, y concretamente en los que se formalizan utilizando como medio la TV. Las CGC son cláusulas que por su naturaleza pueden favorecer al empresario y por tanto crear cierto desequilibrio entre las partes contratantes ya que su redacción

corresponde al ofertante. Si este tipo de condiciones no cumplen las máximas legales, se considerarán cláusulas abusivas, para ello existe una normativa comunitaria y nacional que protege a los consumidores, (Garcimartín Alférez/Álvarez González, 1992, 751). Las CGC se pueden dar tanto en las relaciones de profesionales entre sí como de éstos con los consumidores, exigiéndose en ambos casos que: las CGC que formen parte del contrato; sean conocidas o, cuando la contratación no sea escrita, exista la posibilidad real de ser conocidas. Del mismo modo, se exige que se redacten de forma transparente, con claridad, concreción y sencillez (Pagador López, 1998, 325). Se excluyen del ámbito de aplicación de la norma los contratos administrativos, los contratos de trabajo, los de constitución de sociedades y los que regulan relaciones familiares y los contratos sucesorios 2. II.CLÁUSULAS ABUSIVAS EN LA CONTRATACIÓN ELECTRÓNICA: NORMATIVA COMUNITARIA Y NACIONAL En un entorno como el electrónico, en el que existen CGC que son predispuestas por una de las partes de la relación jurídica a la otra, es necesario reforzar la protección de la parte contractual más débil. En concreto es preciso reforzar dos principios: la protección de los intereses de los destinatarios de servicios, de un lado, y el principio de la protección de los intereses de los consumidores, de otro (Bercovitz, 1978, pp. 99 y ss). El desequilibrio contractual se pone más de relieve para el adherente en el ámbito internacional, donde es más necesaria la innovación legislativa. En este contexto es de suma importancia la Directiva 93/13/CEE del Consejo, de 5 de abril de 1993, sobre las cláusulas abusivas en los contratos celebrados con consumidores3. Directiva no se aplica a las cláusulas contractuales que reflejen: disposiciones legales o reglamentarias imperativas; disposiciones de convenios internacionales donde los Estados miembros o la Comunidad son parte.

CISTI 2015 | 34

A tenor de esta Directiva, una cláusula no negociada será abusiva cuando cause detrimento al consumidor o un desequilibrio importante entre los derechos y obligaciones que se derivan del contrato. Esta norma tiene un anexo con una lista indicativa de cláusulas que pueden ser declaradas abusivas. Una clausula podrá ser declarada abusiva tomando en consideración: la naturaleza de los bienes o servicios que son objeto del contrato; las circunstancias que concurran en la celebración del contrato; las demás cláusulas del contrato o de otro contrato del que dependa (Bercovitz, 2008, 162164). La apreciación del carácter abusivo de las cláusulas, no se referirá a la definición del objeto principal del contrato ni a la adecuación entre precio y retribución, por una parte, ni a los servicios o bienes que haya que proporcionarse como contrapartida, siempre que dichas cláusulas se redacten de manera clara y comprensible.En caso de dudas sobre el sentido de una cláusula, prevalecerá la interpretación más favorable para el consumidor. Los consumidores no estarán vinculados por las cláusulas abusivas que figuren en los contratos celebrados con un profesional. En el ámbito nacional, el control del contenido de las CGC, en la contratación electrónica deberá adaptarse a las normas reguladoras de las mismas, que se contiene principalmente en los arts. 7-10 de la Ley de LCGC. Así pues según este articulado, no quedarán incorporadas al contrato las siguientes condiciones generales: las que el adherente no haya tenido oportunidad real de conocer de manera completa al tiempo de la celebración del contrato o cuando no hayan sido firmadas, en los contratos formalizados por escrito. Tampoco se incorporarán al contrato las cláusulas ilegibles, ambiguas, oscuras e incomprensibles, salvo, en cuanto a estas últimas, que hubieren sido expresamente aceptadas por escrito por el adherente y se ajusten a la normativa específica que regule su transparencia 4. La declaración de una cláusula como abusiva debe instarse judicialmente, por tanto, será necesario acudir a la vía jurisdiccional. Sólo un juez puede dictaminar que en un contrato determinado, existe una cláusula abusiva, y por tanto nula. Esta nulidad parcial del contrato plantea un problema relativo a la integración, ya que el contrato podrá mantener su carácter obligacional una vez eliminadas las cláusulas o condiciones consideradas o declaradas abusivas. Esto podrá darse siempre que la anulación no afecte a ningún elemento esencial para la interpretación o cumplimiento del contrato 5. III.PROTECCIÓN INTERNACIONAL DESTINATARIO-CONSUMIDOR EN CONTRATACIÓN ELECTRÓNICA

DEL LA

La Directiva Comunitaria 2000/31/CE 6- en adelante DCE- y la Ley 34/2002, de 11 de julio, de Servicios de la Sociedad de la Información y el Comercio Electrónico 7-en adelante LSSI y CE, determinan quienes son los sujetos de la relación negocial, en concreto el prestador y el destinatario del servicio.

En este trabajo abordaremos la figura del destinatarioconsumidor del servicio, por tratarse de la parte más débil del contrato y que más protección legal precisa. El usuario de los SSI es quien con el objetivo de obtener un servicio de la Sociedad de la Información, accede a Internet. A su ver el prestador de un SSI puede ser a su vez usuario de un SSI, cuando adquiera bienes y servicios on line, (Madrid Parra, 2003, 185). El usuario-destinatario de un SSI podrá ser consumidor o profesional o comerciante dependiendo de si actúa, en el primer caso, de forma independiente de su actividad profesional y siendo su contratante un comerciante o profesional, y, en el segundo caso, en el ámbito de su actividad profesional. Por ello un consumidor siempre será un destinario de un SSI pero un destinatario de un SSI no siempre será un consumidor. Dado que la LSSI y CE se refiere al destinatario, entendemos que la protección que otorga esta norma se extiende al caso de que este sea consumidor o no. Por ello todo destinario de un SSI tiene derecho a acceder a la información del prestador del servicio por medios electrónicos de forma permanente fácil y gratuita en los términos establecidos en la LSSI y CE 8. la

La DCE só

9 , La LSSI y CE, considera que son consumidores jurídicas que adquieren, utilizan o disfrutan como 10 .

Por tanto según la DCE quedan excluidas las operaciones entre comerciantes profesionales pese a que en ocasiones también puedan ocupar la posición de parte débil frente a otros profesionales. En este caso al ser una excepción a un principio comunitario, debe considerarse estrictamente limitado a lo dispuesto en la DCE 11. El concepto de destinatario de servicio es en el ordenamiento jurídico español más amplio que el de mero consumidor, puesto que es aplicable a cualquier destinatario resulte o no consumidor referido en los términos legales antes expuestos. De la ambigua noción legal de destinatario, deducimos que este término puede englobar tanto a consumidores sensu stricto como a otros destinatarios de servicios de la información. Partimos, pues, de la idea de que el consumidor es siempre destinatario del servicio; pero no todo destinatario tiene necesariamente que ser consumidor. Ahora bien, cuando en el destinatario concurre la condición de consumidor la ley le confiere una tutela especial. Quedan excluidos de la LCGC analizada aquellos contratos en los que las CGC estén determinadas por un Convenio internacional en que España sea parte o por una disposición legal o administrativa de carácter general y de aplicación obligatoria (art. 4º, párrafo segundo, en concordancia con el Considerando 10º de la Directiva 93/13/CEE).

CISTI 2015 | 35

En la LCGC existen determinadas limitaciones para la protección internacional del adherente, referida a todos los contratos que contengan condiciones generales celebrados entre un profesional (predisponente) y cualquier persona física o jurídica (adherente). De esta forma estarían incluidos los contratos electrónicos que incluyan CGC, siendo aplicables todas las disposiciones de la LCGC sobre régimen y requisitos de incorporación de condiciones generales (arts. 5º y 7º), nulidad (art. 8.1), régimen aplicable sobre la declaración judicial de no incorporación y efectos de la sentencia (art. 9.1 y 2) y efectos de la declaración de no incorporación o nulidad de cláusulas (art. 10). Como fuero competente se establece el del demandante, dado que este último siempre será la persona que esté interesada en obtener la nulidad de las cláusulas de condiciones generales (Bureau, 1999, 126 y ss). El art. 8.2 de la LCGC regula la nulidad de las CGC que sean abusivas refiriéndose sólo a los contratos celebrados con consumidores, por lo que se excluirían los contratos celebrados entre profesionales o empresarios. Esta regulación ha sido objeto de crítica por la doctrina mercantilista, debido a que se elimina el control del contenido de las CGC en las relaciones entre empresarios (Vega, 2009, 403). El art. 3º de la LCGC, establece que la Ley se aplicará cuando el contrato deba regirse por la normativa española. Por tanto el ámbito de aplicación de esta norma estará condicionado a la elección de la ley española como lex contractus o del hecho de que el adherente haya emitido su declaración negocial en territorio español y que éste sea su residencia habitual. Este hecho, evita las dificultades propias de la contratación entre ausentes en línea con el art. 9.2 del Reglamento 598/2008, sobre ley aplicable a las obligaciones contractuales de 17 de junio de 2008 12 (Roma I). La regulación expuesta adolece de graves defectos, debido al hecho de que en un único texto legal se procura alcanzar dos metas diferentes: la protección de la parte débil en los contratos de adhesión y la tutela de los derechos de los consumidores (art.6). A tenor de lo analizado, la protección internacional del adherente parece insuficiente, puesto que no existe una regulación especial de las CGC en Derecho internacional Privado, y la normativa existente tiene lagunas en aras a la determinación del Derecho aplicable a las mismas. III.FORMACIÓN ELECTRÓNICO Y CGC

DEL

CONTRATO

El consentimiento que se presta en los contratos celebrados por medio de Internet no difiere del que se debe proporcionar en otro tipo de ámbitos fuera de la contratación electrónica. Lo que cambia en este caso es la forma a través de la cual se presta el consentimiento en Internet. De acuerdo con el principio de libertad de forma que se ha indicado, se han admitido, por vía jurisprudencial, medios como el telégrafo, el télex, el fax o incluso el correo electrónico para expresar el consentimiento, si bien sigue habiendo problemas por las facilidades de manipulación de

dichos documentos y por su general desconocimiento, (García Mexia, 2009, 15). En la mayoría de las legislaciones actuales no se encuentra regulado ni el documento electrónico ni el perfeccionamiento del contrato por medios electrónicos. Sin embargo, en la regulación vigente existe normativa aplicable al respecto. De esta forma, la Ley Modelo de UNCITRAL sobre comercio electrónico establece las directrices para otorgar validez al documento electrónico sobre la base del principio de equivalencia funcional. En este sentido el contrato se entenderá perfeccionado cuando concurran oferta y aceptación. La propia vía electrónica puede asimismo operar de modo completamente automatizado, es decir, con total ausencia de personas en uno de sus extremos (el del prestador del servicio). Hecho que, constituye a su vez una fuente suplementaria de dificultades. Siguiendo a A. Lara Aguado, puede afirmarse que este tipo de problemas, en la contratación electrónica a través de páginas web activas, se ha intentado solucionar mediante mecanismos jurídicos y técnicos, para comunicar la voluntad del predisponente, como son: shrink-wrap contract y click-wrap. En el plano internacional, esta cuestión se aborda desde diferentes perspectivas, en la UE, es un problema de protección del consumidor, en EEUU se trata de una cuestión de consentimiento informado. Para conocer si el consentimiento es válido o no, se deberá de estar al caso concreto, y examinar si el adherente tuvo oportunidad real de conocer esas CGC (Lara Aguado, 2013, 485-547). En los shrink-wrap contracts el producto o servicio objeto del contrato se recibe con condiciones adicionales no negociables, incluidas en la documentación que le acompaña. Por ello el comprador sólo podrá conocerlas una vez abonado el importe del producto Los términos y condiciones de estos contratos no son negociables, y con ellos ocurre lo mismo que cuando se accede a una página Web. En estos acuerdos, el contrato se entiende perfeccionado, cuando el destinatario adquiere el producto y paga el precio, siempre que, en ese momento, se garantice que éste tenga la posibilidad de acceder a dichas condiciones generales (Weatherill, 2012, 1279). Para algunos Tribunales este tipo de contratos no son válidos, puesto que no existe la posibilidad del comprador de conocer estas condiciones antes de adquirir el producto. En concreto, es la jurisprudencia americana la que ha rechazado la utilización de esta técnica en los asuntos Register.com, Inc. v. Verio, Inc13.o en el caso Klocek v. Gateway, Inc14.Para el Tribunal los acuerdos en los que el consentimiento se presta antes de tener conocimiento de las condiciones, no son vinculantes, porque eliminan la necesaria facultad del usuario de rechazar el acuerdo. De otro lado, en otras resoluciones como la relativa al asunto ProCD Inc. v. Zeidenberg 15, el Tribunal concede validez al acuerdo en el que el consentimiento se presta antes de conocerse las CGC, si se concede al usuario la

CISTI 2015 | 36

posibilidad de devolver el producto en un periodo de tiempo razonable, si no está conforme con los términos del contrato. Los shrink wrap contract serán válidos, siempre que superen los demás requisitos exigidos por el Derecho contractual general. El Tribunal comparte esta solución en el caso Hill v. Gateway 2000, Inc. 16 En cambio, hay otros Tribunales norteamericanos que rechazan esta solución y consideran que dichos términos contractuales no forman parte del contrato, a no ser que la parte contratante esté de acuerdo17. Por otra parte, los click-wrap agreements son una técnica que se emplea en los contratos electrónicos por la que las cláusulas se presentan a los contratantes antes o durante el proceso de contratación a través de la página web. El proceso de contratación es el siguiente, cuando el usuario selecciona un producto o servicio para contratarlo, le aparece en la pantalla un icono con las condiciones contractuales; en este momento se le requiere para que preste su consentimiento a dichas condiciones, pinchando en el icono de aceptar, o tecleando determinadas palabras, o pulsando determinada tecla, pues, de lo contrario, no podrá completar el proceso de adquisición. Los click-wrap agreements se pueden leer en la pantalla e ir avanzando sobre los mismos con la ayuda del ratón o de una tecla y pueden mostrarse antes de poder continuar con la transacción, antes de proceder a adquirir un producto o servicio online. En EEUU es comúnmente aceptada la utilización de esta técnica puesto que cumple los requisitos relativos a la formación del consentimiento informado: conocimiento adecuado de los términos, manifestación no ambigua del consentimiento y posibilidad de rechazar el acuerdo. El consentimiento a las condiciones contractuales en los clickwrap agreements se produce antes de efectuar el pago y es obligatorio prestarlo para poder concluir el contrato electrónico. De esta forma, el consumidor tiene una posibilidad real de conocer las condiciones del contrato, y de rechazarlas antes de pagar, a diferencia de lo que ocurría, con las shrink wrap contract. La admisión de esta técnica en los sistemas del civil law, estará condicionada a que este tipo de cláusulas puedan ser almacenadas o reproducidas por el adherente. Así lo postulan preceptos como el art. 10.3 DCE o el art. 27.4 de la LSI y CE. Del mismo modo, el art. 80.1º b) LGDCU, exige que las cláusulas no negociadas individualmente deben ser accesibles y legibles, de forma que se permita al consumidor y al usuario el conocimiento previo a la celebración del contrato sobre su existencia y contenido. En este caso se exige que el envío de la justificación al consumidor se haga por escrito o salvo oposición expresa del consumidor y usuario, en cualquier soporte de naturaleza duradero adecuado a la técnica de comunicación a distancia utilizada donde constarán todos los términos de la misma, cargando con la prueba del cumplimiento de este requisito al predisponente (Zittrain, 2008, 21). La CNUCE no resuelve este problema, cuyo art. 14 se

aplicación de Regla de Derecho alguna por la que se obligue a una parte que negocie algunas o todas las condiciones de un contrato mediante el intercambio de comunicaciones electrónicas a poner a disposición de la otra parte contratante, de determinada manera, las comunicaciones electrónicas que contengan condiciones del contrato, ni eximirá a una parte que no lo haga de las consecuencias En este contexto es interesante reseñar una serie de estrategias elaboradas por un grupo de trabajo sobre prácticas contractuales electrónicas de la American Bar Association. Las mismas sirven de orientación a los asesores de las empresas, con los requisitos adicionales que deberían cumplirse: a) que el usuario tenga la oportunidad de ver suficientemente los términos del acuerdo antes de manifestar su consentimiento y si dichos términos ocupan más de una pantalla del ordenador, que pueda navegar por la misma, hacia adelante y hacia atrás, cambiando de página, para analizar todos los términos del contrato; b) que se le conceda la oportunidad de aceptar o rechazar los términos en cualquier momento del proceso antes de prestar el consentimiento, de manera que no quede duda de que la aceptación o el rechazo se producen mediante la utilización de palabras como Sí, acepto, consiento. Esto implica rechazar palabras como Sí, acepto, c) que se informe al usuario de que la consecuencia de del

acuerdo.

Esto

podría

hacerse

incluyendo

una

reconoce que ha leído, entiende, acepta y está vínculado por los términos, o una advertencia según la cual, si pincha el estará vinculado por los términos, o una advertencia según la cual, si usted rechaza estos términos se le denegará el acceso a la página web, al software, al producto o servicio de que se trate; d) que los términos del contrato estén legibles de manera clara; e) que la información proporcionada no contradiga los términos del acuerdo o lo hagan ambiguo; f) que no se le permita al usuario tener acceso al sitio web, al software, a la información o al servicio de que se trate sin haber prestado previamente su consentimiento a los términos del acuerdo; g) que tenga la posibilidad de corregir los errores y h) que quede un registro para probar que se dio el consentimiento. Este registro debería guardar todos los pasos que se han ido dando durante el proceso contractual, con todos los términos que el usuario aceptó. A este registro se debería poder tener acceso por las personas habilitadas por la ley durante el tiempo exigido por la ley aplicable y de una manera capaz de asegurar su reproducción posterior. V.- CONCLUSIONES Del análisis realizado, puede deducirse que al tratarse en todo momento de operaciones a través de Internet existen problemas de prueba, tanto del contenido como de las cláusulas o condiciones como de la propia aceptación de las mismas. La carga de la prueba corresponde, en estos casos, al predisponente, quien deberá probar, no sólo la existencia

CISTI 2015 | 37

y contenido de dichas CGC, sino también la correspondencia entre la información, entrega y justificación documental y el momento de sus respectivos envíos. Asimismo, a estos efectos, y sin perjuicio de cualquier otro medio de prueba admitido en Derecho, se considera que cualquier documento que contenga la citada información, aun cuando no se haya extendido en soporte papel, será aceptado en su caso, como medio de prueba en los términos resultantes de la legislación aplicable. La normativa deja a salvo cualquier otro medio de prueba admitido en Derecho ya que, de lo contrario, volveríamos irremediablemente a la firma electrónica, cuyo uso es escaso. 1

Véase art. 1 y 2 LCGC Art. 4 LCGC DO L 95, de 21 de abril de 1993 4 Art. 7 LCGC 5 Art. 10 LCGC 6 DOCE nº L 178 de 17 de julio de 2000 7 BOE núm. 166 de 12 de julio de 2002 8 Artículo 10 y ss de la LSSI y CE. 9 Art. 2e de la DCE. 10 Art. 1 LGCU (BOE núm. 287 de 30 de noviembre de 2007). 11 En el artículo 3.4. a) i) de la DCE se permite a los Estados miembros exceptuar la aplicación del principio de libre prestación de servicios del artículo 3.2 de la misma Directiva. 12 DOCE L 177/6 de 4 de julio de 2008. 13 Register.com, Inc. v. Verio, Inc., 365 F. 3d 393, 430-431 (2d Cir. 2004). 14 Klocek v. Gateway, Inc., 104 F. Supp. 2d 1332, 1341 (D. Kan. 2000). 15 ProCD, Inc. v. Zeidenberg, 86 F.3d 1447, 1449 (United States, 7 th Circuit Court, 1996). 16 Hill v. Gateway 2000, Inc., 105 F.3d 1147, 1150 (7 th Cir. 1997). 17 Kloceck v. Gateway, Inc., 104 F. Supp. 2d 1332 (D. Kan. 2000); Step- Saver Data Systems, Incl. v. wyse Technology, 939 f. 2 d 91, 104 (United Satates, 3 rd Circuit Court, 1991); Vault Corporation v. Quaid Software LTD., 655 F. Supp. 750, 761the sense in hill v Gateway 2000: Reflections on the visible h pp. 1125- 1143. 2 3

CISTI 2015 | 38

Estudo preliminar sobre revisão sistemática da literatura de realidade aumentada e virtual aplicada a deficiência motora e cognitiva Preliminary study on systematic literature review of augmented and virtual reality applied to motor and cognitive disabilities Rogério Colpani

Murillo Rodrigo Petrucelli Homem

Departamento de Ciência da Computação Universidade Federal de São Carlos - UFSCar Sorocaba, Brasil [email protected]

Departamento de Ciência da Computação Universidade Federal de São Carlos - UFSCar São Carlos, Brasil [email protected]

Nos últimos anos, estudos têm sido realizados Resumo fazendo uso das tecnologias de Realidade Virtual (RV) e Realidade Aumentada (RA). No entanto, há poucos estudos realizados na área de deficiência. A partir dessa abordagem, o presente artigo apresenta resultados de um estudo preliminar sobre a revisão sistemática da literatura de RA e RV aplicada a deficiência motora e cognitiva. Realidade Virtual; Realidade Aumentada; Palavras-chave Deficiência Motora e Cognitiva. Abstract In recent years, studies have been making use of Virtual and Augmented Reality technologies, which has shown promising results. However, there are few studies conducted on the disabilities area. From this approach, this paper presents the results of a preliminary study on systematic literature review of augmented and virtual reality applied to motor and cognitive disabilities. Keywords - Virtual Reality; Augmented Reality; Motor and Cognitive Disabilities.

Pesquisas mostram que apesar do uso dessas tecnologias encontrarem-se em seus estágios de exploração prática, vários resultados têm apontado na direção do seu uso, ressaltando suas especificidades como fatores motivadores para o tratamento de indivíduos com diferentes tipo lesões. Assim, sua utilização mostra-se viável e vem apresentando ser essencial como um meio de auxiliar na realização de tarefas, aprendizado, elaboração de conceitos e comunicação [4]. Com base no exposto, o objetivo deste trabalho é apresentar um estudo preliminar da revisão sistemática da literatura do uso das tecnologias de RA e RV aplicadas às pessoas com deficiência motora e cognitiva. Este trabalho está organizado como segue: na seção II são apresentados os procedimentos usados para a realização da revisão sistemática; a seção III aborda, em suma, os resultados obtidos da revisão sistemática, a partir dos artigos selecionados, e uma discussão desses artigos; a seção IV mostra as considerações finais para este trabalho. II. MAPEAMENTO SISTEMÁTICO

I. INTRODUÇÃO A tecnologia vem evoluindo constantemente e, com isso, novas áreas de pesquisas estão surgindo em busca de soluções para problemas da nossa sociedade, entre elas, às pessoas com algum tipo de deficiência [1], onde, atualmente, compreendem cerca de 15% da população mundial. Para estas pessoas o uso da tecnologia mostra-se essencial [2]. Nos últimos anos diversos aplicativos de softwares multimídia, Realidade Virtual (RV) e Realidade Aumentada (RA) - vêm sendo utilizados como alternativas aos métodos tradicionais de tratamento, com o intuito de neutralizar as barreiras causadas pela deficiência [3].

A Revisão Sistemática é uma metodologia para realizar revisão bibliográfica de forma sistemática, a qual permite sua condução por meio de etapas bem definidas e proporciona maior confiabilidade e base teórica sólida [5]. De acordo com [6], o Mapeamento Sistemático fornece uma visão geral da área de pesquisa, possibilitando que se conheça a frequência, quantidade e tipos de estudos referentes às publicações ao longo do tempo, permitindo identificar tendências de pesquisa. Este trabalho seguiu o processo proposto por [5], com três fases principais: planejamento, condução e relatório.

CISTI 2015 | 39

A. Planejamento Na fase de planejamento, a partir do estabelecimento do objetivo da pesquisa, deu-se início ao desenvolvimento do protocolo (regras), utilizado para orientar a coleta de evidências do Mapeamento Sistemático. Todas as etapas deste mapeamento foram realizadas com o apoio da ferramenta Start1. 1) Objetivo: o objetivo do estudo da revisão da literatura foi elaborada com a seguinte questão: Quais são as vantagens e as limitações impostas as tecnologias de RV e RA para auxiliar no tratamento de pessoas com deficiência motora e cognitiva?

base de dados é apresentado na Figura 2 e no gráfico da Figura 3 são ilustrados os percentuais correspondentes. A partir de uma análise das Figuras 2 e 3 é possível verificar que as bases de dados da IEEE Xplore e Google Scholar (que representa outras bases de dados) são as que concentram a maior quantidade de trabalhos relacionados com o uso das tecnologias de RA ou RV, aplicadas às deficiências motora e/ou cognitiva, onde, juntas, são responsáveis por 79% das publicações. É importante ressaltar que nenhum artigo foi selecionado da base de dados Scielo e acredita-se que o número reduzido de publicações selecionadas pode ser explicado por ser uma área de pesquisa ainda recente.

2) Base de Dados: as bases de dados eletrônicas escolhidas para a busca dos artigos foram: ACM Digital Library, Science Direct, IEEE Xplore, Springer, Scielo e Google Scholar. 3) String de busca: a princípio esta pesquisa foi realizada pela combinação das palavras-chave realidade aumentada e realidade virtual com: coordenação motora, deficiência motora, terapia ocupacional, reabilitação motora, fisioterapia, acessibilidade, necessidades especiais, deficiência intelectual, cognição, reabilitação cognitiva, acidente vascular cerebral e deficiência cognitiva. 4) Critérios de seleção e exclusão dos artigos: para a seleção e exclusão dos artigos foram escolhidos os seguintes critérios: Seleção dos artigos: título; resumo; palavraschave; ano de publicação (2002 até 2014); idioma (português ou inglês); os artigos devem estar disponíveis na internet; apresentar metodologia para o desenvolvimento ou avaliação das ferramentas. Exclusão dos artigos: não estar relacionado com a área de interesse da pesquisa ou não satisfazerem os critérios de seleção.

Figura 1 - Resumo do processo de condução do Mapeamento Sistemático.

Figura 2 - Quantidade de artigos selecionados por base de dados.

B. Condução do Mapeamento Sistemático O processo de condução do Mapeamento Sistemático foi realizado no período de Julho de 2013 até Abril de 2014 e pode ser resumido na Figura 1. III. RELATÓRIO DO MAPEAMENTO SISTEMÁTICO De forma sintética, essa seção apresenta os resultados obtidos no Mapeamento Sistemático, a partir dos artigos selecionados, e uma breve discussão desses artigos. Após a realização de todas as fases do processo de condução do Mapeamento Sistemático foram selecionados 70 artigos. O resultado da quantidade de artigos selecionados por 1

Start. Disponível em . Acesso em 10 fev. 2015.

Figura 3 - Distribuição dos artigos selecionados por base de dados.

Uma divisão desses artigos foi realizada em dois cenários brasileiro e internacional e, em seguida, estes foram agrupados pelo tipo de tecnologia utilizada. O objetivo foi

CISTI 2015 | 40

analisar a distribuição de contribuição dessas pesquisas e a tendência de tecnologia explorada nos trabalhos tanto no cenário brasileiro quanto no exterior. O resultado, apresentado na Figura 4, ilustra que 80% (56 artigos) das contribuições nesta área de pesquisa estão concentradas no cenário internacional, enquanto o Brasil é responsável por apenas 20% (14 artigos) das publicações. Com base nas Figuras 4 e 5, em geral, 63% dos trabalhos aproximadamente exploram as especificidades da tecnologia de RV, enquanto que, apenas 37% são destinados ao uso da tecnologia de RA. No Brasil as pesquisas estão voltadas, em sua maioria, ao uso da tecnologia de RA, com 71,5% das publicações, aproximadamente. Por outro lado, no cenário internacional, as pesquisas são predominantes na área de RV com cerca de 71,5% das publicações, aproximadamente.

Figura 6 - Cenário Brasileiro: gráfico da distribuição dos estudos por tipo de tecnologia e categoria de pesquisa.

A maioria dos trabalhos foram desenvolvidos entre os anos de 2009 e 2013, sendo responsáveis por 70% dos estudos publicados.

Figura 7 - Cenário Internacional: gráfico da distribuição dos estudos por tipo de tecnologia e categoria de pesquisa.

Figura 4 - Gráfico da distribuição dos estudos divididos entre cenário brasileiro e internacional por tipo de tecnologia utilizada.

A. Discussão Com o avanço da tecnologia, diversas aplicações de softwares (envolvendo multimídia e RV) e objetos físicos controlados por computador vêm sendo utilizados para o tratamento de pessoas com deficiência motora e cognitiva [3]. As aplicações de softwares multimídia estão distribuídas gratuitamente e comercialmente para atividades de memória, lógica, atenção, percepção, controle motor, entre outras. Entretanto, estas possuem limitações quanto a restrição à visualização do usuário à tela do computador, ao realismo da cena e a interação homem-máquina, sendo esta, centralizada ao uso do mouse e teclado [3].

Figura 5 - Percentual dos artigos publicados por tipo de tecnologia.

Por fim, cada artigo foi classificado como pertencente a um tipo de tecnologia aplicado a uma determinada categoria, sendo esta, dividida em deficiência motora e cognitiva. Porém, quanto à categoria, os estudos poderiam pertencer a mais de uma, ou seja, os objetivos não são mutuamente exclusivos. Desse modo, analisando os resultados apresentados nos gráficos das Figuras 6 e 7, verifica-se que, no Brasil e no exterior, as pesquisas são amplamente direcionadas as pessoas com deficiência motora, com aproximadamente 91,5% das publicações. Entretanto, nota-se que no Brasil há uma predominância pequena em relação as pesquisas fazendo o uso da tecnologia de RA. Por outro lado, no exterior, observa-se um estudo significativo com o uso da tecnologia de RV.

De modo a transcender as limitações dos sistemas multimídia, pesquisas têm sido realizadas explorando as características da tecnologia de RV, como a representação tridimensional de objetos virtuais, o realismo da cena e a interação homem-máquina. Contudo, para o desenvolvimento desses aplicativos, é necessário o uso de dispositivos de entrada/saída não convencionais, tais como luvas, head mounted display, trackers e outros, para que os usuários possam interagir com o mundo virtual, o que torna essas ferramentas mais caras e inacessíveis a muitos usuários e entidades de diversos segmentos [3]. Já os objetos físicos controlados por computador, tais como PDAs, smartphones, videogames e outros, apresentam operações intuitivas e potencial para o tratamento e aprendizado cognitivo, principalmente os jogos, mas possuem limitações de acesso e destreza [3].

CISTI 2015 | 41

Nos últimos anos, pesquisas vêm sendo realizadas fazendo uso da tecnologia de RA, no qual vêm apresentando resultados promissores por proporcionar maior acessibilidade às entidades de tratamento e usuários portadores de necessidades especiais, devido ao baixo custo dos aplicativos e de sua fácil distribuição, além da interação usuário-computador ser intuitiva. Alguns trabalhos foram desenvolvidos, mas a maioria aplicados à deficiência motora, entre eles [7, 8, 9]. Contudo, poucos são os trabalhos relacionados a pessoas com problemas cognitivos, entre eles [3, 10, 11, 12]. Com base nas análises realizadas nos trabalhos encontrados, é possível verificar que o uso destas tecnologias comparado aos métodos tradicionais de tratamento mostraram que as pessoas com deficiência motora ou cognitiva apresentam maior prazer, satisfação, motivação e melhor qualidade de vida em realizar as tarefas, além de proporcionar a realização de atividades simples em que, às vezes, não podem fazer parte do seu cotidiano, devido às suas limitações físicas ou intelectuais. De modo geral, nos últimos anos, diversos aplicativos de RV vêm sendo utilizados como alternativas aos métodos tradicionais de tratamento com o intuito de neutralizar as barreiras causadas pela deficiência. Porém, embora apresentarem resultados promissores, a principal limitação está no alto custo para seu desenvolvimento. Por outro lado, a tecnologia de RA vem se destacando e tornando-se cada vez mais popular por possibilitar a criação de aplicativos por meio de dispositivos convencionais (mouse, teclado, webcam, entre outros), linguagens de programação e bibliotecas gratuitas, proporcionando, assim, maior acessibilidade devido ao baixo-custo para seu desenvolvimento, possibilitando o seu uso pelos pacientes em seu próprio domicílio, além da interação homem-máquina ser intuitiva, possibilitar feedback multissensorial, personalização, simplicidade, motivação e engajamento [3]. Entretanto, ambas as tecnologias apresentam vantagens por oferecer aos profissionais da área a capacidade de acompanhar, avaliar e direcionar os exercícios realizados pelos indivíduos em tempo real. No Brasil são poucos os grupos de pesquisas focados na área de RA ou RV aplicado ao tratamento motor e cognitivo; e os trabalhos realizados até o momento mostram-se limitados nas análises de resultados, tanto para comprovar a eficácia de seu uso, quanto metodologicamente. Porém, é possível perceber as contribuições dessas tecnologias para o tratamento de pessoas com deficiência motora e cognitiva, contudo, estas estão longe da eficácia dos métodos tradicionais. IV. CONCLUSÕES Para garantir a imparcialidade na seleção dos artigos, a questão da pesquisa, a seleção das bases de dados e os critérios de inclusão e exclusão foram determinados antes do mapeamento sistemático. Quanto às bases de dados, por ser utilizado um conjunto limitado, pode ser que trabalhos relevantes não tenham sido incluídos neste estudo.

O principal objetivo desse trabalho foi realizar um estudo preliminar sobre a revisão sistemática das tecnologias de RA e RV aplicadas às pessoas com deficiência motora e cognitiva, uma vez que estas estão sendo inseridas cada vez mais na sociedade. Em suma, pode-se observar que há muitas pesquisas a serem realizadas, técnicas e ferramentas a serem exploradas para desenvolver aplicativos eficazes que realmente possam servir de auxílio aos profissionais para o tratamento dessas pessoas, principalmente na área de deficiência cognitiva, uma vez que trabalhos aplicados à esta área estão escassos e os poucos que há se encontram em fases iniciais de pesquisa. Desse modo, espera-se que os resultados deste trabalho possam contribuir, de alguma forma, com as discussões atuais e futuras em torno destas áreas, além de servir como um fator de motivação para que novos projetos sejam desenvolvidos. REFERÊNCIAS BIBLIOGRÁFICA [1]

W. J. N. Cota, F. G. Fernandes, L. G. de Oliveira, M. L. Rodrigues e S. S. B. V. Vita. Inclusão Social Através da Utilização da Realidade Aumentada Móvel Livro Didático Interativo Para Crianças com Síndrome de Down. In: Workshop de Realidade Virtual e Aumentada, Marília, 2015, pp. 172-175. [2] C. C. Cedro e R. C. Bertini. Avaliação da usabilidade e da acessibilidade na realidade aumentada sob o contexto da tecnologia assistiva: Uma reflexão sobre o estado da arte. In: Workshop de Realidade Virtual e Aumentada, Marília, 2015, pp. 154-157. [3] C. Kiner e T. G. Kiner. Developtment of an Interactive Artifact for Cognitive Rehabilitation based on Augmented Reality. In: International Conference on Virtual Rehabilitation, Zurich, 2011, pp. 01-07. [4] R. A. Jerônimo e S. M. P. F. Lima. Tecnologias computacionais e ambientes virtuais no processo terapêutico de reabilitação. O mundo da Saúde de São Paulo, vol. 30, n. 1, 2006, pp. 96-106. [5] B. Kitchenham. Procedures for performing systematic reviews. Keele, UK, Keele University, 2004. Disponível em < http://www.inf.ufsc.br/~awangenh/kitchenham.pdf >. Acesso em 24 jan. 2015. [6] K. Petersen, R. Feldt, S. Mujtaba e M. Mattsson. Systematic mapping studies in software engineering. Procedings of the 12 th International conference on Evaluation and Assessment in Software Engineering, pp. 68-77, 2008. [7] J. W. Burke, M. D. J. McNeill, D. K. Charles, P. J. Morrow, J. H. Crosbie e S. M. McDough. Augmented Reality Games for Upper-Limb Stroke Rehabilitation. In: International Conference on Games and Virtual Worlds for Serious Applications, Braga, 2010, pp.75-78. [8] H. Regenbrecht, S. Hoermann, G. Mcgregor, B. Dixon, E. Franz, C. Ott, L. Hale, T. Schubert e J. Hoermann . Augmented Reality Visual manipulations for motor rehabilitation. Computers & Graphics, v. 36, 2012, pp. 819 834. [9] H. M. Hondori, M. Khademi, L. Dodakian, S. C. Cramer e C. V. Lopes. A Spatial Augmented Reality Rehab System for Post-Stroke Hand Rehabilitation. Medicine Meets Virtual Reality, v. 20, 2013, pp. 279285. [10] V. Billaudeau, P. Richard e G. Gaudin. Augmented Reality for Rehabilitation of Cognitive Disabled Children: A Preliminary Study. In: Virtual Rehabilitation, Venice, 2007, pp. 102-108. [11] A. G. D. Corrêa, G. A. Assis, M. Nascimento e R. D. Lopes. GENVIRTUAL: Um jogo musical para reabilitação de indivíduos com necessidades especiais, vol. 16, n. 01, 2008. [12] D. B. Nascimento, G. F. J. Carvalho e R. M. E. M. Costa. ReabRA: Reabilitação Cognitiva através de uma aplicação de Realidade Aumentada. In: Workshop de Realidade Virtual e Aumentada, Bauru, 2008.

CISTI 2015 | 42

Profile-oriented algorithms teaching: a proposed methodology Fernando Moreira

Maria João Ferreira

Departamento de Economia, Gestão e Informática Universidade Portucalense 4200 Porto, Portugal [email protected]

Departamento de Economia, Gestão e Informática Universidade Portucalense 4200 Porto, Portugal [email protected]

One of the first challenges faced by students who are Abstract starting a Computer Science degree is to acquire skills which allow them solving real life problems through the use of algorithms. Such skills require the development of the ability to abstract as well as to apply algorithms development techniques. As a result of the difficulty in obtaining these competences, there are high failure and dropout rates in courses of related to this field of study. In order to solve this problem, we propose a methodology based on VARK questionnaire to define the profile and, consequently, what are their appropriate educational materials and tools.

In order to improve the results of students in CU related to algorithms, they need to interact with the learning environment through all sensory directions, i.e., speaking, listening, reading, writing, as well as to experience and think about their own knowledge when attending the course content [5].

Keywords - algorithms; VARK questionnaire; methodology; instructional materials; didactic tools.

The main aim of the current research is to develop a proposal for a teaching-learning algorithms methodology oriented student profile, using the VARK questionnaire, and the identification of the most appropriate tools and materials that should be used in class, also according to the profile of students.

I.

INTRODUCTION

The acquisition of the skills required for developing computer programs is one of the first challenges that students have to cope with, when starting a degree in Computer Science or related field of study. Therefore, the course units (CU) Algorithms and Programming, Introduction to Programming, Data Structures, Object Oriented Programming, among others, are absolutely necessary in the first and second years of any of these degrees. Within the listed CUs, Algorithms and Programming is the one that holds a higher level of difficulty, on the one hand, due to the need to develop the abstraction ability, which is unknown or little practiced by many of the students. Additionally, it is also important to understand the notion of algorithm; algorithms consist in the basis for training in computing courses, as previously mentioned. In other words, algorithms are the basis for the development of programs in any language. For this reason, it is highly difficult, if not impossible, for a student to perform well in the UCs that required the use of educational programming languages without a reasonable knowledge of algorithms development techniques [1]. As mentioned, the algoritmia is known as a difficult subject for students, and is considered by many authors as coresponsible for high failure and dropout rates in many IT courses [2], [3]. Barcelos [4] emphasizes in his study the high students failure and dropout rates in CU algorithms, based on a research conducted during the school years 2008 and 2009 (2nd half of 2008 and the 1st and 2nd half of 2009). In this study, it was possible to assess the students' failure percentages above 50% in all semesters.

Active learning theories make teachers and students actively participate in their learning environment in order explore, experiment, test and apply the knowledge acquired the classroom to solve real-life problems, as the main goal algorithms development [6].

to to in of

The rest of the paper is organized as follows. In the next section, a background of the addressed subjects is presented. The state of the art is described in the section III. In sections IV and V it is presented the methodology and the respective validation proposal is made. Finally, in the last section, conclusions are discussed. II.

BACKGROUND

A. Algorithms The definition of algorithm has been given by several authors ([7], [8], among others) throughout time. In [7] algorithm is defined as an "ordered sequence and unambiguous steps which lead to the solution of one problem" while [8] defines the algorithm as "a finite set of rules that provides a sequence of operations for solve a specific type of problem"and states that "the notion of algorithm is basic to all computer programming.". It is interesting noting that the presented definitions are summarized in the definition provided by Merriam-Webster dictionary (http://www.merriamwebster.com/dictionary/algorithm), in which algorithm is characterized as" a set of steps that are followed in order to solve a mathematical problem or to complete a computer process". To solve a problem by building a computer program, while using the computer as a tool and following the "rules", it is necessary to perform an ordered set of steps. At the first one of the most important stages the problem to be solved must be identified. In the second stage, a set of steps should be used

CISTI 2015 | 43

in order to build the solution for the problem before starting using the computer. After the problem definition, a detailed analysis of the problem should also be performed in order to obtain a set of smaller problems. Similarly, these problems should then be divided into smaller problems until each one of them can be treated as an indivisible task and whose solution can be seen in a global way, i.e., as the problem solution. Finally, for each problem, an algorithm should be constructed, and subsequently coded in a programming language (C, C #, Java, etc.). There are several ways to represent the algorithms, either in writing or schematic forms, and to translate the problem resolution. The most common forms of algorithms representation are: (i) Narrative description a form written in Portuguese / English; (ii) Conventional flowchart; (iii) Chapin Diagram and (iv) Pseudocode. Altogether, these different forms enable students to build solutions for to a proposed problem. B. Learning Styles Throughout the past few years, several researches have been conducted, regarding the preference of students for the type of teaching / learning, since they have different ways of learning and have different self-abilities [9]. However, a student learning preference may also change throughout time, along with his maturation, and acquisition of different skills. All the various models developed to explain the different learning styles were here grouped into four general categories: a) personality models, b) information processing models, c) models of social interaction, d) models of instructional preferences [10]. The incompatibility between the preferred learning style and educational strategy used by each teacher leads to several consequences, as presented in [11]: (i) inattentive students; (ii) discouragement by the course; (iii) low grades; (iv) lack of interest; (v) hostilities and (vi) limited cooperation. Analyzing, in particular the category d) models of instructional preferences the model which has gained more popularity, is the Visual, Aural, Read/write, and Kinesthetic questionnaire (VARK) [12]. VARK questionnaire (http://varklearn.com/the-vark-questionnaire) is simple and is designed to, on the one hand, help students meet their learning profile more effectively and, on the other, help teachers becoming more sensitive as regards the variety of learning strategies needed to reach all students [13]. However, this questionnaire cannot be used to draw conclusions about the strengths or weaknesses of an individual during the learning process [14]. The VARK questionnaire consists of sixteen multiple-choice questions with four items each, corresponding to the four modalities V, A, R and K [12]. This tool is useful for teachers who are seeking to develop additional teaching and learning strategies [15], which should be more appropriate to the profile. A student who has a V-type profile prefers to learn using graphics, symbolic representations, or video materials, or through the auditory input such as teacher's explanations or presentations. Obtaining an A type profile often indicates that a student perceives the information better if it is is auditory and verbal. This type of students prefers discussions, explanations or lectures, i.e., a more traditional behavioral approach (expositive classes). The student belonging to the type R

profile prefer to get the input and to produce output through reading and writing, which represents information in the form of text instead of sound or images. Students with this profile are more favorable for self-study [16], [17]. The kinesthetic (K) profile fancies more practical experience rather than other modes of perception. For K-type profile student it is worth highlighting the importance of real or simulated practice; students can achieve better learning outcomes from practical demonstrations of teaching topics. Nevertheless, it should be mentioned that no teacher or student is restricted to only a learning preference mode. III.

STATE OF THE ART

In this research it has not found any work about the use of VARK questionnaire for profiling, and further development of materials and neither the choice of tools for students attending UC algorithms. However, the number of research papers discussing the issue of teaching algorithms is very extensive and covers a lot of areas of intervention. As indicated above, despite the lack of research in this topic, it is important to show its evolution. In [4], the author presents a very interesting classification of several computer systems for teaching algorithms (about 31 proposals). It depends on the educational strategy, and points to the use of more than one strategy in the same proposal. The classification of the strategies used in the various proposals is: (i) Animation nine proposals; (ii) Animation and flowcharts four proposals; (iii) Collaboration six proposals; (iv) Table Test three proposals; (v) Plays five proposals; (vi) Portugol with four proposals; (vii) Graphs two proposals; (viii) System Intelligent Tutor - two proposals, and (ix) Teaching objects one proposal . In addition to these proposals it is possible to find a predominance of models using algorithms visualization tools [18], [19], [20], [21], [22]. Among the proposals analyzed, in the literature review presented in [22], which took place from 2001 to 2013, and concerns the visualization tools algorithms for teaching data structures, are presented seventeen different proposals. It is worth noting that the submitted proposals did not considered or investigated the profiles of the students as well as their preferred learning styles, which is the differential issue pointed in the methodology proposed in the ongoing investigation. IV.

PROPOSED METHODOLOGY

In general, we can state that teachers should consider the learning styles of students while designing and throughout the development of UCs. Despite the fact that it may not be highly essential for teachers to test and instruct students in all situations, testing them with the VARK instrument - simple and fast - can provide important information to create an effective learning environment. To be aware of learning styles and considering its impact on the learning environments are the first steps towards an essential understanding of the profile of the students when developing a UC to teach algorithms. A. The study hypotheses and research methodology Two study hypotheses were set in order to understand the proposed methodology: (1) Can students with a profile obtained by VARK questionnaire have a better performance

CISTI 2015 | 44

when targeted materials are used?; (2) It is possible to develop materials for a group whose the profiles are heterogeneous or in a group whose students have a predominant profile according to the results obtained from questionnaire VARK? The obtained results will be based on a research technique that makes use of pre and post-tests that measure the knowledge acquired by students in a learning activity. Such tests consist on the application of a set of questions that must be answered by students before and after a particular activity. In particular, the pre-test allows determining the level of knowledge of participants on an issue that will be approached before training. The post-test consists in applying a set of questions with the same level of difficulty, in order to assess the evolution of the acquired skills [23]. The comparison between the pre-test notes and the posttest, together with the profile obtained through the VARK questionnaire, it is possible to understand the benefits of the activity and what are the appropriate materials to enhance the increased knowledge of the students and, consequently, lead to a decrease in failure and dropout rates [2], [3]. Furthermore, it should also contribute to the identification of the gaps present in the teaching-learning process regarding students that hold no predominant profile. B. Methodology As discussed previously it is important to define the students profile in order to help in the design and development of teaching materials. With this assumption a methodology is proposed. It consists of five different components with a defined sequence (Figure 1).

Figure 1. Methodology components.

In the component (A) the VARK questionnaire is used to analyze the profile of each one of the students who attend UC algorithms in order to understand what kind of teaching materials need to be built and made available for (B) (for instance, if those materials should be more descriptive or visual, etc). Based on the results and constructed materials it is necessary to carry out its distribution to different types of devices, namely, if the model is applied to classroom teaching, distance learning (e-learning), blended learning (b-learning), or to be used only in mobile devices (mobile learning, m-learning) (C). For instance, the use of e-learning or m-learning involves the production of materials appropriate for such type of devices. Some of the most important components in the teaching-learning models are the used evaluation methodologies (D). The whole methodology has a monitoring and control process (E) which allows the adjustment of the materials, devices used and evaluation methodology, as long as students and teachers understand these needs.

C. Teaching materials As mentioned in previous sections, the use of different learning materials is required. For this reason, examples of teaching materials that meet the needs of each profile will be presented. For students who have an A type profile, podcasts are a good approach. A podcast is a lesson / lecture prerecorded and distributed via Internet or in a mobile device, allowing students to hear it as often and when and where they want. There are many ways to share the podcast. Probably one of the most well-known is through iTunes. However, there are other tools, such as Audioboo (https://audioboom.com/about/education). An interesting example of using podcasts to support computer science education is podcasts produced by Alan O'Donohoe (http://audioboom.com/users/104685/boos). For students with V type profile, tutorial videos and graphics are more appealing. Through the use of video tutorials, also known as vodcasting, the teacher can record the lesson / session and make it available in the Internet if shared share openly at YouTube, SchoolTube, TeacherTube, or more restrictively in the institution LMS platform. The class "Algorithms, Structures, Pseudocode, Flowcharts" (https://www.youtube.com/watch?v=eXH5Pg-VZks) is an example of the shared distribution of high quality content. In this context students can follow the lesson / session outside the classroom and use class time / session to explore the some other concepts in more detail. For students with R type profile, wikis can be a good solution as it allows groups of individuals (students and teachers) to develop collaboratively sites without any knowledge or site design experience. Thus, a wiki can be used to save instructional videos and associated resources so that it is possible to assist in the concepts incorporation of algorithms abstraction. Students can then update the wiki and summarize what they have learned. Free tools like PBworks (http://pbworks.com/education) and Wikispaces Classroom (http://www.wikispaces.com) are hypotheses for creating wikis. Wikispaces Classroom extends the collaborative editing features of a wiki, including some additional features to support the lessons, characteristics such as social interaction and formative assessment. Teachers can also monitor how often the student reads, edits or save a page. In the learning process of students with a K-type profile, each student learns by active physical activities, which is just the opposite of being passively listening to theoretical explanations, for example, through lectures and colloquia. This way, the elements introduced to meet this concept in teaching algorithms are the tools where the student can see the result of their algorithmic solution. These tools can include VisuAlg (http://www.guanabara.info/logica/Ferramentas/visualgv25.exe), the 1 Webportugol (http://www.guiadoexcel.com.br/webportugol/webportugol.html), among others. In this type of tools the student can observe the solution step by step and see how this is evolving, especially as a result of the feedback provided by the tools. This type of solution 1

This link contains Java, and it obliges the u computer to the Java security issues.

CISTI 2015 | 45

contrasts with the traditional teaching algorithms solutions that are made by pencil and paper.

[4]

D. Proposal for methodology validation In order to decide what is taught in the first lectures of algorithms, the VARK questionnaire must be completed by student, so it is possible to obtain the their profiles, as well as pre- and post-tests, so their knowledge can be assessed.

[5]

The lessons that take place between the pre and post-test should consist in carrying out teaching activities using the materials and tools according to the profile designed by the VARK questionnaire. In each lesson, students will receive a set of programming exercises (algorithms with different degrees of difficulty, but related to the same topic, for example, conditional structures). In the first lesson sequence programming will be addressed while the second it should be discussed the use of conditional structures. In the following lessons students will explore the supporting resources, according to their profile, or other profiles, for a better understanding of the concepts. Any assessment made by students will be used to understand the development of exercises on sequential programming and on the implementation of conditional structures. The exercise evaluation will be divided as follows: (i) Variables identification; (ii) Input; (iii) Processing; (iv) Results and (v) Conditional structures utilization.

[8]

The results will correlate the performance in the pre and post-test according to their profiles in order to verify the two hypotheses previously defined. This comparison should reflect the benefits of using training materials in accordance with the defined profile. V.

CONCLUSIONS

The ability to abstract and to perceive what an algorithm is can be the very first challenges to a student, which is starting his degree in a computer field of study. These two difficulties have been shown to induce the high failure and dropout rates of students in courses in this area. This way, the main goal of the current research was the proposal of a methodology based on VARK questionnaire to define the and, consequently, what are the materials and tools more appropriate when teaching algorithms. It was intended, in this research, to test the proposed methodology, and allow further development, based on the results obtained, in order to evaluate situations where a profile is predominant in a group of students. One possible solution, according to the size of the student group, is to build different student subgroups according to their profile. REFERENCES [1] [2] [3]

Boston, MA. USA. 2011. A. M Engelbrecht, P. J. Dilermando, G. S Nakamiti, F. Bianchi, Algoritmos e Programação de Computadores. Editora Campus, São Paulo, 2012. A. com dificuldades na aprendizagem inicial de programação de ormação e Tecnologia, 1, 2008, pp. 93-103.

[6] [7]

[9]

[10] [11] [12] [13]

R. J. S Barcelos, O Processo de Construção do Conhecimento de Algoritmos com o Uso de Dispositivos Móveis Considerando Estilos Preferenciais de Aprendizagem. Tese de Doutorado. UFRGS. 2012 C. Meyers, T. B. Jones, Promoting Active Learning: Strategies for the College Classroom , Jossey-Bass, 1993. W. Longmire, A Primer on Learning Objects . IN Circuits, A. L. (Ed.), ASTD Learning Circuits. 2000. Uma abordagem McGraw-Hill, 1983. D. E. Knuth, et al. Selected Papers on Computer Languages , Stanford, CA, CSLI, 2003. Available at http://www.bitsavers.org/pdf/stanford/cs_techReports/STAN-CS-76562_EarlyDevelPgmgLang_Aug76.pdf. A. A. Kumar, A. Smriti, S. A. Pratap, G. Krishnee, An analysis of gender differences in learning style preferences among medical students . Indian Journal of Forensic Medicine and Pathology, 5 (1), 2012pp. 9-16. S. C. Claxton, P. H. Murrell -ERIC higher education report 4. Washington, DC: Association for the Study of Higher Education, 1987. V. Lindermann, M. R Tarouco, M. Bercht,. Estilos de Aprendizagem: um estudo de casos em turmas de algoritmos e programação XIX Simpósio Brasileiro Informática e Educação Fortaleza CE, 2008. E. Bernardes, M. Hanna, How do management students prefer to learn? International Journal for the Scholarship of Teaching and Learning , 3 (1), 2009, pp. 1-12. MERLOT (Multimedia Educational Resource for Learning and Online Teaching): the active learning site with VARK learning styles inventory. Available at www.merlot.org/merlot/viewCompositeReview.htm?id=145206

[14]

/ Baltic Sea Conference on Computer Science Education, Kolin Kolistelut/Koli Calling, 2004, pp. 121 125. [15] Preferred learning style: Gender influence on preferred learning style among business students. Journal of US-China Public Administration , 6 (4), 2009, pp. 65 78. [16] N.D Fleming, I'm different; not dumb. Modes of presentation (VARK) in the tertiary classroom , in Zelmer,A., (ed.) Research and Development in Higher Education, Proceedings of the Annual Conference of the Higher Education and Research Development Society of Australasia (HERDSA), Volume 18, 1995, pp. 308 313. Available at http://www.itu.dk/people/metteott/ITU_stud/Speciale/L%E6ring/learnin gStyles/different_not_dumb.pdf. [17] N. D Fleming, Teaching and Learning Styles: VARK Strategies , Honolulu Community College, 2001. Available at http://www.varklearn.com/english/index.asp. [18] of a Web-based Scripted Collaboration Environment and Algorithm and Collaborative Systems, IEEE Computer Society, 2010, pp. 116-123, DOI 10.1109/INCOS.2010.38 [19] 2012, pp. 1 6, DOI: 10.1109/FIE.2012.6462290 Algorithm Visualization in Teaching Practice Didactica Napocensia 7 (1), pp. 1-17, 2014 -First Approach to Teaching [21] R. LibeskindAlgorith 2013, pp. 573-578 , [22] Algorithms Computer Science and Software Engineering 4(3), March, 2014, pp. 338-341 [23] I- and Post2008. [20]

CISTI 2015 | 46

Architecture for Centralizing Healthcare Services Duarte Ferreira Departamento de Engenharia e Gestão Industrial Faculdade de Engenharia da Universidade do Porto Porto, Portugal [email protected]

Tiago Rocha R&D Department Fraunhofer Portugal Research Center for Assistive Information and Communication Solutions Porto, Portugal [email protected]

António Carvalho Brito Departamento de Engenharia e Gestão Industrial Faculdade de Engenharia da Universidade do Porto Porto, Portugal [email protected] Despite the technological advances, healthcare Abstract systems still face several issues. One of the most important is the lack of communication between systems or the communication process speed. If the information about a patient is not promptly shared in time between services, it may jeopardise the practicioner-pacient relationship. In a worse scenario, the system can even become a handicap and turn the Healthcare processes down into a state of total uselessness. A lot has been done in Portugal to enable the interconnection of external healthcare applications with the ones used in the National Health Service. In this article we present an architecture to facilitate this interconnection. Based on a REST architecture and HL7 communication standards, it connects two current solutions, one for melanoma and one for blood donors, with a central healthcare data repository of the National Healthcare Service. Keywords

donation services availability and procedures at the local hospital and access to other services; and an application that enables the user to document the moles on his body using the camera of a smartphone and later showing the images to the doctor. In this article, we start by doing an overview of the state of the art of the technologies we are going to use proceeding to a application in sections 2 and 3. We then describe the methodologies we use for modelling the architecture, the subsystems that build our solution and our initial proposal for the architecture in sections 4, 5 and 6. We will finish with the conclusions that we found relevant for this article and the future work we would like to see achieved.

HL7; REST;ROA; Healthcare Systems.

I.

II.

INTRODUCTION

Despite the technological advances, healthcare systems still face several issues. One of the most important is the lack of communication between systems or the time it takes when it exists. If the information about a patient is not shared in time between services, the practitioner is not being helped by the system in his relation with the patient. In a worse scenario, the system can even start to be a bottleneck and slow the Healthcare processes down to a state that is not even usable. The software that supports the activities of the Portuguese National Health Service (SNS) has been improved to fill this gap of communication between different systems. The SPMS (Serviços partilhados do Ministério da Saúde) is the entity in charge of regulating the software for the public health sector and also develops software to attend special needs. This entity has developed two major systems: the Health Data Platform (PDS) and the Electronic Medical Prescription (PEM). The main point of this systems is to facilitate the work of the health services and to improve the quality of the information and services that are shared. This article will focus on the interoperation between external services and the PDS. We present an architecture to connect the PDS to external services using two mobile applications as examples: a platform that supports the blood donors, providing information about Blood

STATE OF THE ART

Software architecture is one of the most important part of the whole software development roadmap[1]. In fact, it is so important it should be at the very heart of software systems design and development[2]. A software architecture for a system is the structure or structures of that system, which comprise elements, their externally-visible behaviour and the relationships among them[3]. Software Architecture acts as a bridge between the requirements from the business side and the implementation of the system. 1) Service Oriented Architecture Service Oriented Architecture (SOA) and Resource Oriented Architecture (ROA) are two design patterns. As seen in [4] there are various different design patterns when dealing with software architecture. In complex architecture, like the one we are designing in this article, there is none that can solve all the architectural complexity. Service-Oriented Architecture, also referred to as SOA, is defined by The Open Group as:

ACKNOWLEDGMENT Project SAL, co-financed by the European Community Fund FEDER through COMPETE Programa Operacional Factores de Competitividade (POFC)

CISTI 2015 | 47

Service-Oriented Architecture (SOA) is an architectural style that supports service-orientation. Service-orientation is a way of thinking in terms of services

and service-based development and the outcomes of services. SOA is currently considered the best available solution for achieving interoperability, agility and a clear upgrade path that preserves the investment in legacy systems. There are still many misconceptions about it[5] but in fact, SOA can provide true interoperability and enhance the quality of the healthcare service provided[6]. Most of the SOA implementations are are described using WSDL[8] based on SOAP[7], their interface descriptions that are then stored in UDDI[9] repositories. But this model overlooks the importance of resources and how they are handled on the system. SOA imposes that the data model is known by all the users of this service[10]. 2) Resource Oriented Architecture ROA is a congregation of design guiding principles confirming to REST style with a set of conceptions and properties[11]. REST describes the characteristic that the application state of client changes with the transferring of each four key concepts: resource Resource indicates the nameable things on the Web; URI is the name and the address of the resources, a accessible on the Web; Representation is some data about the current state of resources, like data itself and metadata that describe the physical resources; Link is the objects that trigger the changing of application state. Since REST uses the HTTP protocol as a transport and as an application protocol, it uses a HTTP-based semantics: representation. Consumers use it to retrieve a representation from a URI (uniform resource identifier). Services provided through this interface must not incur any obligation from consumers. representations. representations. representations. Using HTTP as the application protocol makes the applications developed using ROA and REST lighter when compared to SOA and SOAP. In SOA we have to use HTTP and SOAP to communicate. Even though there are a lot of projects using ROA in the web and most web applications support some kind of REST interface, there is still a lot of scepticism towards using ROA in an enterprise system. This may occur because there is no contract between the provider and the consumer of a resource like in SOA, where both parts know the communication interface described by the WSDL file. Also there is no automatic generation of communication layers like in SOA where most of the development environments have a way to automaticaly generate WSDL based on an API or an API based on the WSDL. There are

some attempts to make REST more enterprise friendly integrating it with UML[12], describing it using WSDL[13] or in a Service-Oriented Business Process Execution[14]. 3) Health Level Seven Messaging Standard Health Level Seven Messaging Standard usually referred to as HL7 is a standard defined by the Health Level Seven International and used as a communication standard in healthcare systems. This standard has two parallel versions, version 2 and version 3. Dave Shaver stated some interesting numbers[15] about the utilization of the different standard vast majority of HL7 versions. He concluded that messaging is done using messages that approximate HL7 2.3 or greater and 3.0) portion of real-world [15]. The HL7 V2 standard was created mostly by clinical interface specialists and was designed to provide a framework in which data could be exchanged between disparate clinical systems. The V2 standard provides 80 percent of the interface framework, plus the ability to negotiate the remaining 20 percent of needs on an interfaceby-interface basis. The HL7 V3 standard was first released in late 2005, and was strongly influenced by governments and medical information users rather than by clinical interface specialists. The V3 version is not backwards compatible with V2 versions of the standard, so existing V2 interfaces will not (without considerable modification) be able to communicate with interfaces using V3. HL7 V3 was created to address some specific challenges identified in the HL7 V2 standard, including: An implied, rather than consistent, data model; An absence of formal methodologies with data modelling, creating inconsistencies and difficulties in understanding; A lack of well-defined roles for applications and messages used in different clinical functions; Too much flexibility and not enough of a full solution. The goals of HL7 V3 were to increase worldwide adoption of the standard, define a consistent data model and create an entirely new standard, more precise and less vague, that would not be hindered by legacy issues. The decision to make HL7 V3 a new standard (and incompatible with older and more widely implemented V2 versions) means that it has not been widely adopted. To adopt HL7 V3, users would need to create and maintain HL7 V2-based interfaces with HL7 V2based applications, while deploying new V3-based applications and implementing interfaces between them. For this reason, HL7 V3 has been adopted primarily for use: in applications without legacy communication requirements; in applications without historical use of HL7 V2 in communications; or in regions/locations that have high government enforcement of HL7 V3 usage[16]. III.

SYSTEM AND PLATFORMS

To understand the need for the connection between this systems we are going to explain briefly what each system is

CISTI 2015 | 48

and how being connected to the PDS can improve both platforms. A. Plataforma de Dados da Saúde The Plataforma de Dados da Saúde (PDS) is composed by three subsystems: the patient portal; the practitioner portal; and the international portal. The patient portal is a web application where the patient can interact with the health services. The patient can record some health information like height and weight, allergies, chronic medicines that he takes and also record some notes he considers important. The practitioner portal focuses on the practitioner needs, he can access information about his patients and even get access to information on other services from the SNS, for example, another primary care centre where the patient went while on vacation in another part of the country. The international portal is similar to the practitioner portal except that is for practitioners on other European countries. It enables the foreign doctors to look at a patient health record when he is abroad and requires health care. The SPMS is developing an API that enables external portal. The full specifications of the API are not yet know, but it is going to use a REST API to map the current functionalities available in the portal in this API. B. Melanoma Application The melanoma mobile application enables the user to document, through photos, the evolution of his moles during a time period. This application developed by the Fraunhofer Institute in Oporto, can be used by patients, following a and show the images to the doctor in the next appointment. One of the limitations of this application that we wanted to improve was that, for security reasons, the images never leave the smartphone where the application is installed. So it was not possible to send the information to the primary care doctor or a dermatologist to evaluate the mole. Even though, the patient had images of his mole, they were only checked during the appointments. Giving the primary care practitioner or the dermatologist access to the image when it is taken, can help detect a melanoma in an earlier stage. This is a new feature we are planning for the platform: record the images on the PDS so they are accessible to both practitioners and patients. Another situation where a software like this could be useful when a primary care practitioner sees a suspicious mole in a patient and wants to send an image to the closest hospital. The hospital has a melanoma triage team to examine the information from the patients and schedule a first appointment with a dermatologist. At the moment, most of the reports sent hey usually to this triage cen just have information from the primary care practitioner stating that the person has a suspicious mole, where the mole is situated in the body and why the primary care practitioner thinks it is suspicious. There are already some primary care file, but an interconnected process could improve the triage results. Recording the information on a central and certified

repository like the PDS could help improve the communication between the patients, the primary care practitioner and the dermatologist. C. Blood Donors Application also a smartphone application and provides personal information to the user about his previous blood donation and smartphone. The application has also an educational part where the user can get information on the blood donation process and it also has some frequently asked questions and blood respective answers. During a blood donation the is examined to check if he or she is a suitable blood donor. There is currently no information regarding donors on the PDS, neither the results of the exams nor the information that the patient is a donor or when was his or her last blood donation. The PDS is a good candidate to a centralized and certified repository for the data generated by this application, keeping it accessible to the patient and the practitioners. IV.

METHODOLOGIES

The original project proposal intends to create a solution able to aid in the everyday healthcare routines and integrate the services making them more available to the general public. All information should be accessible to the general public independently of the platform used. With that in mind we developed a system for the 3 major platforms currently in use. Those platforms are Android, iOS and the web. The information flow and services available must be the same, regardless of the platform in use. To do so, we decided to use a main server which is responsible for the data management between the several applications and the database. V.

INFORMATION ARCHITECTURE

The information architecture is a key point in systems like this one. It is of extreme importance to provide and maintain critical and personal information with security, so we must take this as one of our top priorities within the project. The system can be used by a single healthcare institution as its own proprietary solution, or it can be used by a network of hospitals/clinics to centralize and organize patient data, providing personalized and dynamic access to patients using the technologies available as well as boosting patient/doctor communication. There are 3 main scenarios for the information architectures, and the option of which one to use depends on the existing infrastructure, access times, and data availability. As we can see in Fig.1, the first option keeps all institution SAL server/access point in this case would send requests for the connected institutions asking for the needed records. Available on the server itself would only be a reference to the content, allowing us to know where a specific record is if it has ever been accessed before. Otherwise it must ask for it to

CISTI 2015 | 49

all connected institutions. This system is highly dependent on connection speed and availability.

For the vast majority of cases, the third scenario seems the best one since it manages to keep the initial and maintenance costs as low as possible with fast data access in the majority of scenarios and lowest information flow. Given these advantages it is the scenario we choose for the prototype development and implementation. VI.

APPLICATION ARCHITECTURE

To make a system with this magnitude and character, to work as intended, it is necessary to assure reliable communication between our core/central system and the legacy services in each institution. To allow this we must develop a system based on standard communication and structural protocols. On the other hand, by doing this we would also allow our architecture to be as modular as possible making it a very good solution for future expansion. Figure 1 Virtual Approach

On the second scenario, shown by Fig.2, we have a centralised request approach. This model would be capable of storing and synchronizing its data with the institutions over time. It basically has duplicated information to allow for faster access and data availability when the connection to the institutions is down. However it has a high rate of information flow and higher maintenance costs.

A. The Subsystems The current national healthcare system is composed of several linked subsystems. We intended to tap into this ecosystem and provide value with our solutions and functionalities. The initial system in this scenario is composed by 5 subsystems: Organization/Institution: The hospital or clinic. With its own procedures and internal services and architecture developed according to world standards; Services: Internal/spatiality services like blood services or Dermatologists; Blood donation events/Brigades: Autonomous blood harvest modules or brigades. These are temporary and mobile parts of the system. However, the information of these subsystems are forwarded to the institution itself; PDS: It constitutes the national health record data project. Uses web service technology to link information from several sources, providing it to several different areas/stakeholders. Sal Services: It is composed of the melanoma and Blood Services.

Figure 2. Centralized Approach

The third and final option as shown in Fig.3 is a central repository with the most relevant information to the SAL modules. This repository would be connected to the institution/s, but would also host the basic patient information and a reference for them in the institutions. For the currently existing modules, the information available, would be all the skin moles and check-ups for the Melanoma modules and all the harvest and blood information for the blood module.

Figure 3. Hybrid Approach

CISTI 2015 | 50

Figure 4. Architecture Overview

Figure 5. Server-Client Overview

B. Architectural Proposal All the systems presented will be in direct or indirect contact with the schema presented in Fig.4. Since flexibility and adaptability is one of our objectives, we will be using standard communication protocols every time possible. The schema presented in Fig.4 shows the basic architecture layout in our system. The SAL server is in the core of the systems since it is the application responsible for forwarding the information between the system parts. It will translate the data if using different communications protocols and keep the internal database information coherent. The schema presented shows one possible Health organization with a simple and generic structure. In this structure, the Health organization/institution contains several internal modules or services regarding a specific part or ecosystem which will be working as a connection bridge between the field teams and SAL service. We are able to connect to one or several of these ecosystems, creating a larger one. By doing so we are capable of relating information of several patients or even checking information of the same patient using different sources. To complement and expand medical record, the systems intend to use the PDS as a source of generic information. As the Portuguese national health record it should provide some basic access to patient generic information such as demographics and summary of health related events. The core of SAL will also contain some information related to its modules. In this first step those modules are the Melanoma Detection and Blood, so check-ups, moles and blood donation information will be available. The remaining elements on the schematic are related to the end users of the system. We will discuss these elements in more detail over the next section. C. The Server-Client Model The Fig.5 represents an overview of the server client model and the workflow inside these modules. Here we will explain in detail how each component of the system works and how it is integrated with the whole system. This system allows for the several parts to be placed in different physical locations, in the same machine/server on the healthcare institution or in a centralized facility. The only constant requirement is the network connectivity between the sistems. 1) Client

On the client side we created an API capable of executing all the requests we need for the patient or doctor demands. It is a unified structure used in both mobile clients and Web interface that serves as a bridge between the server and the respective applications front-end. This client API is also capable of receiving real time notifications for instance when a doctor wants to inform its patients of an anticipated appointment. 2) Server The server is used as a link between several entities to facilitate the information flow between the several modules and parts of the project. Starting with the Server API we can see in Fig.5 that it is in direct contact with the client API. However it is only capable of receiving http requests and respond to them. In order to initiate a connection with the client, the Server API needs to route the request through Google cloud messaging services. This free service is limited in both number of requests and amount of information it can carry, so if used in a large scale it must be updated. To cope with larger information flows started in the Server we use the GCM to ask the Client to start an HTTP connection. By doing so we have unlimited data available at the server request. Then we can see the backend itself connected to the currently existing Blood and Melanoma modules. The SAL database represented in the schema can either be internal or external to the system, so it can be implemented according to the needs or limitations of the medical entity. Connections to the Institutions will be using HL7 protocol according to the current standards for healthcare. The PDS connection will use the API provided by SPMS. VII. CONCLUSION Most of the Healthcare providers in Portugal have some sort of application or system to record patient data. Unfortunately most of them only work as a local repository for internal use. PDS brought a new paradigm to the Healthcare IT systems in Portugal but a lot remains to be done. In this article we present an architecture to connect new applications and data sources to the PDS platform. This architecture enables a flow of information between the applications and the PDS, using the PDS as a centralized and certified storage for all information related to the patient.

CISTI 2015 | 51

VIII. REFERENCES [1]

[2]

[3]

[9]

styles: foundations and models for software Softw. Syst. Model., Nov. 2012.

[10]

R. N. Taylor, N. Medvidovic, and E. M. Dashofy, Software Architecture: Foundations, Theory, and Practice. Wiley Publishing, 2009.

Services Computing, 2007. SCC 2007. IEEE International Conference on, 2007, pp. 256 261.

[11]

J. Zhang, F. Li, and C.Construction Based on REpresentation State 2008 IEEE Int. Conf. E-bus. Eng., pp. 665 668, 2008.

[12]

urce Oriented Architecture in UML A Case Study on Smart Serv. (SERVICES1), 2010 6th World Congr., 2010.

P. Clements, D. Garlan, R. Little, R. Nord, and J. 25th Int. Conf. Softw. Eng. 2003. Proceedings., 2003.

[4]

[5]

[6]

Revisited pp. 1 39, 2005.

Inf. Syst. J., vol. 81, [13]

G. a. Lewis, E. Morris, S. Simanta, and L. Wrage, -Oriented 2007 Sixth Int. IEEE Conf. Commer. (COTS)-Based Softw. Syst., pp. 123 130, Feb. 2007.

[8]

Syst., 2008.

World Wide Web Internet Web Inf.

[14]

S. Kumaran, R. Liu, P. Dhoolia, T. Heath, P. Nandi, 2008 IEEE Int. Conf. E-bus. Eng., pp. 197 204, 2008.

[15]

-Comparing HL7 Corepoint Heal. http//www. Versions 2 and corepointhealth. com/sites/default/files/whitepapers/hl7-v2-v3evolution. pdf. Retrieved, vol. 16, 2012.

[16]

K. Atalag, D. Kingsford, C. Paton, and J. Warren,

V. Mantzana, K. Koumaditis, and M. Themistocleous, Proc. 10th IEEE Int. Conf. Inf. Technol. Appl. Biomed., pp. 1 4, Nov. 2010.

[7]

Available: https://www.oasisopen.org/committees/uddi-spec/faq.php. [Accessed: 30-Nov-2013].

Primer (Second Edition) W3C Recommendation 27 W3C, pp. 1 57, 2007. [Online]. Available: http://www.w3.org/TR/wsdl. [Accessed: 30-Nov-2013].

CISTI 2015 | 52

2009.

Elect

, vol. 5, no. 1, pp. 1 17,

Algoritmos Murciélago Binarios para el Problema de Cobertura de Conjuntos Binary Bat Algorithms for the Set Covering Problem Broderick Crawford1,2,3, Ricardo Soto1,4,7, Claudia Olea1, Franklin Johnson5,1 , Fernando Paredes6 1 Pontificia Universidad Católica de Valparaíso, Valparaíso, Chile 2 Universidad San Sebastián, Santiago, Chile 3 Universidad Central de Chile, Santiago, Chile 4 Universidad Autónoma de Chile, Santiago, Chile 5 Universidad de Playa Ancha, Valparaíso, Chile 6 Universidad Diego Portales, Santiago, Chile 7

Universidad Científica del Sur, Lima, Perú.

En el presente documento se propone la utilización Resumen del Algoritmo de Murciélago Binario utilizando variaciones para resolver el Problema del Cobertura de Conjuntos. El Algoritmo de Murciélago es una meta heurística reciente inspirada en el método de eco-localización utilizada por los murciélagos para encontrar alimentos y evadir obstáculos. En este caso utilizaremos la versión binaria del Algoritmo Murciélago, proponiendo el uso dos técnicas de transferencia y dos técnicas de discretización y definir cual se adecua más para poder resolver instancias conocidas del Problema de Cobertura de Conjuntos. Palabras Clave Algoritmo Murcielago; Optimización Combinatorial; Metaheuristica; Problema de Cobertura de Conjuntos. Abstract In the present paper, we resolve the Set Covering Problem using the recently presented meta-heuristic named Binary Bat Algorithm. We use two variations of this algorithm. The Binary Bat Algorithm algorithm was created observing how the bats evade obstacles and find preys to eat, the use of echolocalization is how they do it. We made some changes using two different transfer and two discretization techniques to solve the problem. Keywords - Binary Bat Optimization Algorithm; Combinatorial Optimization; Metaheuristic; Set Covering Problem.

I.

INTRODUCCIÓN

almuerzo no existe un método disponible que nos permita obtener buenas soluciones para todos los problemas. Lo ideal sería que existiese un algoritmo multipropósito que nos ayudase en la optimización, pero debido a que no poseemos tal algoritmo debemos seguir buscando nuevas y mejores opciones para resolver problemas. Las heurísticas nos permiten encontrar soluciones de calidad en periodos de tiempo razonables, pero no nos garantizan la obtención de resultados óptimos [1]. Las metaheurísticas van más allá que las heurísticas, mostrándonos un

mejor desempeño e incluso en algunos casos entregando valores correspondientes a soluciones óptimas. Existen múltiples estudios que usan algoritmos completos para obtener resultados óptimos. Beasly [1] ha investigado exhaustivamente este tema y en sus inicios propuso usar una técnica de optimización de sub-gradiente combinada con una heurística para solucionar el problema; más adelante junto a Jortensen [8] propusieron utilizar f-cortes de Gomory para mejorar la calidad de las soluciones. Además otros investigadores han propuesto el uso variados algoritmos que garantizan la obtención de soluciones aproximadas, En este estudio nuestro objetivo principal es encontrar soluciones para el problema de Cobertura de Conjuntos (SCP) utilizando el Algoritmo Murciélago (BA) con su versión binario (BBA). Se probara esta metaheurística con modificaciones en las técnicas de binarización para tratar de mejorar los resultados. El Problema de Cobertura de Conjuntos es un problema de minimización en el cual se debe reducir la suma de las columnas seleccionadas. Las restricciones permiten asegurar que cada fila sea cubierta por al menos una columna. Es un clásico problema de la ciencia de la computación ya que problemas del tipo NP-Complejos y muchos problemas reales pueden ser modelados como un problema de Cobertura de Conjuntos. Problemas tales como ubicación de las instalaciones, programación de tripulación aérea, programación de horarios de enfermeras, asignación de recursos, entre otros. II.

DESCRIPCIÓN DEL PROBLEMA

Un clásico problema de las ciencias de la computación es el Problema de Cobertura de Conjuntos, y uno de los motivos es que problemas NP-Hard pueden ser modelados como uno de ellos. La asignación de recursos, programación de horarios de tripulación aérea, la aplicación en procesos de manufactura son solo algunos de los problemas reales que pueden ser modelados como este problema. Normalmente se utilizan técnicas incompletas para resolverlo, por lo cual parte de la complejidad

CISTI 2015 | 53

es delegada a la correcta elección del algoritmo que se utilizara y a la configuración correcta de los parámetros del mismo. En la representación binaria del problema los costos y la cobertura están separados en dos funciones, lo cual nos permite tener una matriz binaria representando la cobertura. Para el caso que estamos analizando consideraremos esta representación que nos permite tratar el problema como uno de minimización [2]:

(2) La actualización de la posición se realiza modificando el vector de posición, en este caso dicha modificación se realiza evaluando la velocidad en la función de transferencia y luego utilizando un método de discretización para cambiar los valores de los bits que componen dicho vector. Inicializar posiciones de la población de murciélagos Inicialización de parámetros Inicializar velocidad, frecuencia mínima y máxima, tasa de emisión del puso y volumen. Definir alfa y delta

Una reducción del problema aplicable a las instancias es usada al ejecutar la meta-heurística.

1

Mientras t < T

2.

Para cada murciélago ajustar frecuencia (1) y actualizar velocidad (2)

3.

Calcular función de transferencia

4.

Si Aleatorio > Tasa de emisión del pulso

5.

Actualizar posición

El Algoritmo Murciélago Binario (BBA) es una variación del Algoritmo Murciélago, ambos algoritmos fueron propuestos por Xin Xang. El algoritmo Murciélago está basado en el comportamiento de los micro-murciélagos, este algoritmo es considerado estocástico ya que utiliza la aleatoriedad. Los tres principios en los que se basa son [3]:

6.

Seleccionar una solución Gbest entre las

8.

Si Aleatorio >

Todos los murciélagos utilizan eco-localización para percibir la distancia que tienen a objetos u obstáculos. Ellos pueden diferenciar entre comida, presa, murallas u obstáculos.

9.

Aceptar la nueva solución local

Los murciélagos vuelan aleatoriamente con velocidad en la posición . Cuando están buscando una presa ajustan su frecuencia cambiando su longitud de onda y volumen . Los murciélagos pueden ajustar su frecuencia y ajustar la tasa de emisión de pulso .

12. Si Aleatorio >

III.

DESCRIPCIÓN ALGORITMO MURCIELAGO BINARIO

El volumen varia de un alto positivo mínimo

a un valor

En el caso del SCP necesitamos minimizar la función objetivo , en la cual cada componente es una variable de decisión [5]. En la representación que haremos del problema utilizando el algoritmo murciélago binario consideramos que cada murciélago tiene una posición y cada una de esas posiciones corresponde a la representación de una solución al problema. Cada componente de la posición representa una variable de decisión [3]. Hay tres ecuaciones principales que son parte del algoritmo. La primera nos permite calcular la frecuencia del murciélago (1), mientras que la segunda nos ayuda a calcular la velocidad considerando la frecuencia como parámetro (2). Finalmente la tercera representa la posición del murciélago.

mejores soluciones 7.

Generar una solución local alrededor de la solución seleccionada and precisión <

10. Aumentar 11. Reducir 13. Generar aleatoriamente una solución local en base a las mejores soluciones 14. Calcular función de transferencia 15. Actualizar posición 16. Si Aleatorio >

y costo local <

17. Actualizar precisión 18. Aceptar nueva solución 19. Ajustar frecuencia (1) y actualizar velocidad (2) 20. Calcular función de transferencia 21. Actualizar posición 22. Ordenar de menor a mayor los murciélagos y encontrar el mejor valor actual Para métodos consiste solución

CISTI 2015 | 54

encontrar buenas soluciones es necesario combinar de explotación e intensificación. Esta combinación en explotar usando la información de una buena e intensificar realizando uso de esa información en el

área de esa solución. También es necesario usar la exploración para poder encontrar nuevas y diversas soluciones que nos permitan realizar una búsqueda en todo el espacio, este método es bueno para evitar quedar atrapado en un óptimo local [1].

podemos observar el comportamiento en las primeras cien iteraciones.

Las meta-heurísticas usan la aleatoriedad y la búsqueda local [1], en este caso se usa la aleatoriedad para proveer un método de movimiento que permita salir del área local al área global [1]. Al realizar la búsqueda considerando en área global tenemos más oportunidades de encontrar mejores soluciones.

Gráfico de Convergencia

IV.

OPCIONES DE FUNCIONES DE TRANSFERENCIA Y DISCRETIZACIÓN

Se trabajó en un espacio de búsqueda binario, lo cual permitió trabajar con diferentes funciones de transferencia y distintos métodos de discretización. La posición de cada murciélago es representada por un vector con valores 0 o 1, los cuales irán variando. Para determinar la posición necesitamos usar la velocidad para calcular el valor utilizando una función de transferencia para luego evaluar este valor en una función de discretización y finalmente cambiar la posición del murciélago. Los valores retornados por las funciones de transferencias se encuentran en el rango . [4].

470 465 460 455 450 445 440 435

Solución

Figure 1 Gráfico de convergencia

Parameter

Value

Number of iterations Number of bats

Las funciones de transferencia utilizadas en el estudio son:

A r

1000 30 0 2 0,25 0,5 0.9 0,9

TABLE 1 Configuración de parámetros

Para realizar la discretización los dos métodos utilizados Elegir el mejor:

Al evaluar el rendimiento de la solución se considera la mejor solución encontrada, el valor promedio y el porcentaje relativo de desviación (RPD). Luego observamos cuales la mejor combinación de función de transferencia y método de discretización.

Ruleta:

V.

Las meta-heurísticas necesitan ser eficientes para otorgar buenos resultados y producir soluciones de calidad [6]. Lo ideal es que las soluciones generadas se encuentren cerca a la solución óptima.

ANALISIS DE RESULTADOS Y CONFIGURACIÓN DE PARÁMETROS

La configuración de parámetros al momento de utilizar una meta-heurística es una de las partes más importantes para poder obtener una buena solución. Este estudio no fue la excepción, los valores de los parámetros elegidos fueron en su mayoría los [5]. La cantidad de iteraciones fue uno de los valores modificados, ya que con muchas menos iteraciones se logra obtener buenos resultados. En el gráfico de convergencia

Instance

Optimal Value

Best Solution

Average

RPD

Transfer

Update

4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 A.1 A.2 A.3 A.4 A.5 D.1 D.2 D.3 D.4

429 512 516 494 512 560 430 492 641 514 253 252 232 234 236 60 66 72 62

448 559 537 527 527 607 450 509 697 571 261 277 252 249 241 62 73 79 67

448,63 560,03 537,46 529 527,9 607,93 454,63 510 700,06 571,26 261,96 280,26 252,3 252,63 242,4 62,96 73,26 79,13 67,1

4,43 9,18 4,07 6,68 2,93 8,39 4,65 3,46 8,74 11,09 3,16 9,92 8,62 6,41 2,12 3,33 10,61 9,72 8,06

4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4

5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5

CISTI 2015 | 55

D.5 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 A.1 A.2 A.3 A.4 A.5 D.1 D.2 D.3 D.4 D.5

61 66 66 8,20 429 448 449,96 4,43 512 559 560,5 9,18 516 537 540,56 4,07 494 527 530,26 6,68 512 527 533,36 2,93 560 607 608,23 8,39 430 450 460,26 4,65 492 509 510,16 3,46 641 697 702 8,74 514 571 571,73 11,09 253 261 261,06 3,16 252 278 279,63 10,32 232 252 252,06 8,62 234 249 252,03 6,41 236 241 241,7 2,12 60 61 62,6 1,67 66 73 73,46 10,61 72 79 79,06 9,72 62 67 67,16 8,06 61 66 66 8,20 TABLE 2 Resultados de pruebas realizadas

4 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3

5 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6

A pesar de no obtener RPD cercanos a 0, podemos observar buenos valores. Se puede observar que la función de transferencia y el método de discretización son los componentes principales que nos permiten mejorar el rendimiento del BBA. Las funciones de binarización usadas mejoran la exploración y principalmente la explotación. VI.

CONCLUSIONES

Al realizar pruebas con las instancias OR-Library utilizando el Algoritmo Murciélago Binario se comprobó que es un método eficiente. La propuesta demostró ser robusta al tener un rendimiento constante usando los mismos parámetros para diferentes instancias. Además tiene un bajo costo, ya que se obtuvieron excelentes resultados utilizando pocos recursos computacionales. La solución propuesta tiene muy buenos resultados en pocas iteraciones del algoritmo. En otros trabajos recientes en los cuales se resuelve el problema de Cobertura de

Conjuntos se obtuvieron valores de RPD similares teniendo que realizar miles de iteraciones [7]. A futuro se recomienda utilizar una meta-heurística adicional o una técnica configuración de parámetros para mejorar los valores obtenidos en este estudio. También se recomienda intentar mejorar el rendimiento del algoritmo probando nuevas técnicas de transferencia y discretización. AGRADECIMIENTOS Ricardo Soto is supported by Grant CONICYT/FONDECYT/INICIACION/ 11130459, Broderick Crawford is supported by Grant CONICYT/FONDECYT/ REGULAR/1140897, and Fernando Paredes is supported by Grant CONICYT/ FONDECYT/REGULAR/1130455. REFERENCIAS BIBLIOGRAFICA [1] [2] [3] [4]

[5] [6] [7]

[8]

J. E. Beasley. An algorithm for set covering problem. European Journal of Operational Research, 31:85-93, 1987. G. S. Ibrahim Muter, S. Ilker Birbil. Combination of Metaheuristic and Exact Algorithms for Solving Set Covering-Type Optimization Problems. Informs Journal on Computing, 22:603-619, 2010. K. A. C. D. R. J. P. P. X. S. X. R. Y. M. Nakamura, L. A. M. Pereira. BBA: A Binary Bat Algorithm for Feature Selection . Int'l Conf. Genetic and Evolutionary Methods. GEM'11. G. T. S. M. S. Mirjalili, S.Z. Mohd Hashim and S. Salehi. A Study of Different Transfer Functions for Binary Version of Particle Swarm Optimization. Int'l Conf. Genetic and Evolutionary Methods. GEM'11, 22:169-174, 2010. Seyedali Mirjalili, Seyed Mohammad Mirjalili,Xin-She Yang: Binary Bat Algorithm. Neural Computing and Applications, Volume 25, 663681, 2014. X.-S. Yang. Nature-Inspired Metaheuristic Algorithms. Luniver Press, 2010 Goncalves, J.F., Resende, M.G.C., Toso R.F.: Biased and unbiased random-key genetic algorithms: An experimental analysis. AT&T Labs Research, Florham Park, 2012. J. E. Beasley and K. Jornsten. Enhancing an algorithm for set covering problems. European Journal of Operational Research, 58(2):293 300, April 1992..

CISTI 2015 | 56

The Table to Tablet (T2T) Therapy Software Development Approach Luis M.T. Jesus

School of Health Sciences (ESSUA) and Institute of Electronics and Informatics Engineering of Aveiro (IEETA) University of Aveiro Aveiro, Portugal [email protected]

Joaquim Santos

Institute of Electronics and Informatics Engineering of Aveiro (IEETA) University of Aveiro Aveiro, Portugal [email protected]

Marisa Lousada

School of Health Sciences (ESSUA) and Center for Health Technology and Services Research (CINTESIS.UA) University of Aveiro Aveiro, Portugal [email protected]

Daniel Pape

Institute of Electronics and Informatics Engineering of Aveiro (IEETA) University of Aveiro Aveiro, Portugal [email protected]

Joana Martinez

Institute of Electronics and Informatics Engineering of Aveiro (IEETA) University of Aveiro Aveiro, Portugal [email protected] This paper presents the Table to Tablet (T2T) project Abstract therapy software development approach, which aims to provide a reliable and valid solution for speech and language therapists to work with children with speech sound disorders (SSD). The currently available intervention materials for this kind of paediatric disorder have not been tested or validated and digital materials are scarce. For the T2T project, new tabletop materials and web based intervention software have been developed and results from testing them in a group of seven children with SSD are currently being analysed. Future work will compare the effectiveness of a tabletop approach versus a digital one. Keywords Speech Sound Disorders; Speech and Language Therapy; Phonology; Games; Web based; Mobile; Validation.

I.

INTRODUCTION

Speech sound disorders (SSD) are the most common paediatric communication disorders referenced for speech and language therapy [1], [2]. Children with SSD [3] have gaps in their speech sound systems that may cause difficulties in producing or understanding phonemes. They may fill these constraints with speech patterns and structures that should not be present in typically developing children within their age group. They can present substitution errors, syllable structure errors, phoneme distortions and atypical prosody [3]. These problems are often associated later in life with literacy difficulties and social problems [2]. Children with phonologically-based SSD normally present difficulties in phonology, which can be observed by the amount of phonological processes (descriptive rules that account for structural or segmental speech errors of substitution, omission

or addition [3]) evident in their speech [4]. Recent findings in the study of reading have highlighted the importance of phonological processes in reading acquisition [5]. Thus, it is crucial that speech and language therapists work on the expressive phonological skills and phonological awareness in order to support the underlying skills for literacy in children with phonologically-based SSD [6]. Speech and language therapists (SLTs) usually There are develop specific activities to suit each some tabletop (e.g., board games or other physical objects that [11]) and digital materials commercially available to help with this process, but they are not widely distributed and, more importantly, their efficacy has not been tested. are surrounded by electronic devices, computers, smartphones and other technologies that change their interactions and learning preferences [7]. Therefore SLTs often feel the need to innovate and enlarge the strategies and activities used in the therapeutic intervention. One solution is the use of software to better suit the actual children [8]. This use of a computer gamebased approach to teaching and learning is considered an effective tool that can promote and enhance learning [9]. The use of computer games provides a selective and personalised therapeutic approach, with the advantage of being motivating for children [10]. However, there are some key issues that have not yet been addressed. First, there are no real measures of the effectiveness of using software in SLTs

CISTI 2015 | 57

intervention, so it is not known whether computer-based activities can add to the therapy process or rather create problems as result of using them [11]. Secondly, it is important to consider how children respond to computer game-based intervention and in what extend it differs from a traditional tabletop presentation approach. Finally, there has not been much research on the comparison of the use of software and tabletop activities in children with SSD [8], [11], [12]. We aim to address all of these past limitations in the novel Table to Tablet (T2T) approach. We include details about the technology used to develop the software and the method used to assure consistency of the intervention materials. II.

METHOD

A. The Table to Tablet (T2T) Project The project aims are to provide validated tabletop SSD intervention materials for SLTs and to emulate, in a digital version, the tabletop activities. a set of games has been specifically developed for the projet to be used Our final goal is to test and validate both versions of T2T in a group of twenty children with SSD (ten for the tabletop and ten for the tablet version). B. The T2T Framework The T2T intervention materials include eight activity areas: 1. Auditory bombardment (focusing on the target phoneme or phoneme combination) [13]; 2. Hearing and discriminating (to incorporate sounds into the phonological system) [2]; 3. Grapheme-phoneme correspondence (knowledge of phoneme-grapheme relations) [14]; 4. Phoneme identity (to identify phonemes in words) [14]; 5. Segmentation (to analyse words at the phonemic level) [14]; 6. Blending (to blend isolated sounds together to form words) [14]; 7. Rhyme (to identify phonological similarities in spoken word pairs) [14]; 8. Phoneme manipulation (to analyse and manipulate sounds) [14]. There are a total of eighteen different activities (with at least one activity for each area), games to be played at home and a generalisation task1. The activities included in the project are based in a phonological therapy approach (combination of expressive and phonological tasks, phonological awareness, listening and discrimination activities) that proved in a previous study [15], 1

This last task is included because it allows the SLTs to test if

treatment of words and targets [3].

[16] to be an effective integrated method of remediating phonologically-based SSD in children. Most of the activities have two levels of difficulty differentiated by the inclusion or absence of the written word. The words to be used in the intervention were grouped using the most common phonological processes for European Portuguese [17]. Each word was illustrated by a professional designer. All the materials were pre-tested in a group of seven children with phonologically-based SSD selected by geographical convenience. The group includes four girls and three boys with an age range from 4;0 to 5;7 years, all diagnosed with phonologically-based SSD. C. The Technlogy Behind T2T Tablets or smartphones are gaining ground over laptops/desktops due to their tactile nature which is closer to user reality [18] and due to their mobility, dissemination and growing popularity [19]. These devices have different operating systems, so browser based technologies were used in order to be operating system agnostic and minimise timeconsuming operations (like program installation). Activities can be run online (at http://t2t.web.ua.pt/) or offline. The offline mode was a requirement due to the variety of locations where SLTs sessions take place (no guaranteed internet connectivity during sessions or at the users households). These requirements lead us to use HTML5, CSS3 and Javascript (resorting to some of its libraries Jquery / JQuery UI - and frameworks when needed for extra functionality / ease of use), with the use of PHP and MySQL for the database. Due to the varying screen sizes of the user devices, a responsive design was deemed necessary and the Bootstrap framework was used 2. Clinically relevant data is stored and retrieved using HTML5 Local Storage in the SLTs for further evaluation. A fully developed database and GUI will also be developed in order to help planning interventions and monitor progress of a particular therapeutical approach. Technologies behind the T2T approach, can be considered new/bleeding edge and thus may still not be fully supported by all browsers and/or equipments, but lack of support is decreasing [20] with each new version of both hardware and software. The software has been designed to work identically across platforms currently available. D. Design Process In terms of design and its validation, we used Rogers et al. [21] approach, which includes complementary stages / phases of development. the Phase 1: Design, prototyping and construction prototyping process included several design iterations; competitor analysis and definition of requirements have been completed. This allowed the immediate identification of flaws and needs in terms of user feedback, visibility and coherence across areas. The design and prototyping processes resulted in the first version of activities and games. 2

Bootstrap is a popular open-source HTML, CSS and Javascript framework, for developing responsive, mobile first projects on the web [23].

CISTI 2015 | 58

Phase 2: Data gathering and analysis testing is currently being performed; data on how users interact with the software and a systematic register of their comments and/or complaints will be analysed. Human code inspection and code walkthrough with a different team of programmers and JSLint has also been used to assure code quality control [22]. III.

RESULTS

A. Tabletop Version The tabletop materials are currently being tested with a group of seven children. Feedback regarding illustrations as well as the activities is being registered. This allows for readjustments of some materials. A total of 335 illustrations (the basis of intervention) are currently available. There are also eighteen small tales (with at least twenty words with the target sound [3]) built around each phonological process, including a background image that illustrates the main characters in the story. Approximately 955 different sounds have been recorded for the digital version. Additional graphic materials for the different activities and homework have also been developed. B. Tablet Version In the tablet version (i.e., software version) flowcharts (see Figure 1) depicting the thought / activity process that resulted from the direct co-operation between the developers and SLTs, have been initially produced for all areas. These flowcharts were the basis for the first version of some activities which are now at the Beta phase. Figures 1 and 2 present an example of the first level of one activity of the grapheme-phoneme correspondence area. In this activity the child must associate the grapheme to its sound in the word. In this example, the child has to associate the letter to the sound produced at the beginning of the word ( couch ) excluding options available in the other two pictures. She/he will then have a visual and audio feedback. C. Validation Process Tests of the tabletop version supported the development of the tablet version because physical materials were first used in therapy, which determined the actual needs. Currently, we are developing phase 2, i.e., consistency is being analysed, and test pages have been created for all activities. There is constant interaction with SLTs and their feedback assures that the program is developed according to their needs. IV.

Figure 1 - Simplified flowchart

CONCLUSIONS

The development process of expected system use scenarios allowed us to conclude that the final prototype was adequate for the outlined requirements. The T2T intervention materials represent an added value for SLTs due to its dual tabletop and digital approach, but also for being scientifically validated. Future work will include a British English version of T2T materials.

CISTI 2015 | 59

Figure 2 - Tabletop to digital version

V.

ACKNOWLEDGEMENTS

[19]

This project was partially supported by Fundação Calouste Gulbenkian, Portugal. This work was partially funded by National Funds through FCT Foundation for Science and Technology, in the context of the project UID/CEC/00127/2013. The authors would like to thank the children, parents, kindergartens and schools teachers that allowed us to test our activities.

[20]

REFERENCES

[22]

[1]

[2] [3] [4]

[5] [6] [7] [8] [9]

[10] [11] [12] [13] [14] [15]

[16]

[17] [18]

impairment in a nationally representative sample of 4- to 5-year-old J. Speech, Lang. Hear. Res., vol. 52, pp. 1213 1229, 2009. G. Lancaster, Developing Speech and Language Skills - A resource book for teachers, teaching assistants ans speech and language therapists. Abingdon: Routledge, 2008. C. Bowen, . Oxford: WileyBlackwell, 2009. tive study of the phonology of pre-school children with specific languagem

[21]

[23]

Clin. Linguist. ahd Phonetics, vol. 16, pp. 573 596, 2002. ctors of Specific Reading Skills in Children at Risk for Reading Failure Reading and Writing, vol. 2, pp. 39 59, 1990. G. Gillon, Phonological Awarness: From Research to Practice. New york: Guilford Press, 2004. D. Furió, S. González-Gancedo, M.-C. Juan, I. Seguí, and N. Rando, Comput. Educ., vol. 64, pp. 1 23, 2013. L. Pereira, A. Brancalioni, and M. Kesketherapy with the use of com Rev. CEFAC, vol. 15, no. 3, pp. 681 688, 2013. -Based Learning in high school Computer Science education: Impact on educational effectiveness Comput. Educ., vol. 52, no. 1, pp. 1 12, 2009. Rev Soc Bras Fonoaudiol., vol. 13, no. 4, pp. 398 404, 2008. Pathol., vol. 10, no. 5, pp. 346 63, 2008.

Int. J. Speech. Lang.

assisted speech mana J Speech Hear Disord., vol. 54, pp. 233 248, 1989. B. Hodson and E. Paden, Targeting intellligible speech: A phonological approach to remeditation, 2a ed. Austin: Pro-Ed, 1991. Phonological Awareness: An intervention program for preschool children with Speech-language M. Lousada, L. Jesus, S. Capela, C. Margaça, D. Simões, A. ulation treatment approches in Portuguese children with speech and Int. J. Lang. Commun. Disord., vol. 48, no. 2, pp. 172 187, 2013. ligibility as a clinical outcome measure following intervention with children with phonologicallyInt. J. Lang. Commun. Disord., vol. 49, no. 5, pp. 584 601, 2014. rdization of a PhoneticFolia Phoniatr. Logop., vol. 64, no. 3, pp. 151 156, 2012. gestures for manipulating 3D objects from touchscreen Comput. Graph., vol. 36, no. 8, pp. 1119 1131, Dec. 2012.

CISTI 2015 | 60

Forecast to Top Total PC Shipments in the Fourth Quarter of 2013 ne]. Available: http://www.idc.com/getdoc.jsp?containerId=prUS24314413. [Accessed: 10-Feb-2015]. - How well does your browser support https://html5test.com/results/desktop.html. [Accessed: 10-Feb2015]. Y. Rogers, H. Sharp, and J. Preece, Interaction Design: Beyond Human - Computer Interaction, 3rd ed. Chichester: Wiley, 2011. http://www.jslint.com. [Accessed: 11-Feb-2015]. M. Otto http://getbootstrap.com/. [Accessed: 10-Feb-2015].

Green Code Energy Efficiency in the Source Code for High-Performance Computing Eficiencia energética en el código fuente para computación de alto rendimiento Javier Corral-García, César Gómez-Martín, José-Luis González-Sánchez CénitS (Centro Extremeño de iNvestigación, Innovación Tecnológica y Supercomputación) Cáceres, España {javier.corral, cesar.gomez, joseluis.gonzalez}@cenits.es Abstract Energy consumption is a key challenge in HPC (HighPerformance Computing). Nowadays, as far as software is concerned, optimizations for energy saving are usually implemented at different levels, with an obvious lack of proposals so that the user could directly write energy-efficient code. This proposal aims to contribute to source code optimization so as to achieve optimal performances and maximum efficiencies in their executions, demonstrating the importance of certain strategies in creating code. Keywords efficient code; energy saving; HPC; HighPerformance Computing, OpenMP. Resumen El consumo energético es un reto clave en HPC (HighPerformance Computing, computación de alto rendimiento). Actualmente, las optimizaciones para el ahorro energético referentes al software suelen implementarse en distintos niveles, siendo patente la falta de propuestas para que el usuario final escriba directamente código eficiente energéticamente. La presente propuesta pretende contribuir a la optimización de códigos fuente que permitan obtener rendimientos óptimos y eficiencias máximas en sus ejecuciones, demostrando la importancia de ciertas estrategias en la creación del código. PalabrasClave código eficiente; ahorro energético; HPC; computación de alto rendimiento, OpenMP.

I.

INTRODUCCIÓN

En los últimos años ha crecido la necesidad de replantear el impacto medioambiental producido por la tecnología, convirtiendo el ahorro energético en un asunto crítico, donde el derroche se produce tanto en componentes hardware como software. Las decisiones tomadas durante la fase de diseño tienen un impacto significativo sobre el consumo de energía de un sistema computacional. Por ello, el paradigma del Green Computing1 aborda el ahorro energético mediante la aplicación de diferentes métodos orientados al software y al hardware. Las optimizaciones para el ahorro energético referidas al hardware se logran a través del diseño de circuitos mediante la

implementación de diversas técnicas. Respecto al software, sus optimizaciones suelen implementarse en el sistema operativo, con técnicas de planificación que analizan los procesos activos en términos energéticos, y mediante la utilización de Green Compilers y análisis de códigos en tiempo de compilación. Del mismo modo, también es posible ahorrar energía durante el ciclo de vida del software. La supercomputación tiene planteados varios retos claves para alcanzar prestaciones exascale2, identificando cuatro de ellos donde es necesario desarrollar tecnologías disruptivas a este fin: el consumo energético, la memoria, la concurrencia y la resiliencia. La presente propuesta pretende ser una contribución en el ámbito del consumo de energía. II.

ALCANCE Y OBJETIVOS

Green-Code persigue un desarrollo de código fuente eficiente, partiendo de la propia eficiencia energética de los dispositivos tecnológicos sobre los que se ejecuta dicho código. Las investigaciones previas desarrolladas por la Fundación COMPUTAEX (Computación y Tecnologías Avanzadas de Extremadura) centraron el estudio de la eficiencia energética en tres campos: sistemas, redes y explotación de recursos medioambientales. La principal diferencia de un código optimizado es su velocidad de ejecución. En un supercomputador esta velocidad es especialmente importante, ya que algunas ejecuciones pueden durar semanas o incluso meses hasta obtener el resultado final. Al tratarse de periodos tan amplios, el tiempo de ejecución puede variar significativamente dependiendo de su eficiencia. Un código eficiente supondrá entonces no solo un menor tiempo de ejecución, sino un consumo mucho menor. Se propone como objetivo principal la optimización, dentro del desarrollo de código para computadores de altas prestaciones, de códigos fuente de ámbito general, con el fin de obtener rendimientos óptimos y eficiencias máximas, teniendo en cuenta la correcta implementación de sus funcionalidades.

1

Green Computing (Green IT o Tecnologías Verdes) es el estudio y la práctica de tecnologías informáticas ecológicamente sostenibles, incluyendo el diseño, fabricación, uso y eliminación de software y hardware con eficiencia y eficacia con un mínimo o ningún impacto en el medio ambiente.

2

La computación de Exascale es la relativa a aquellos sistemas computacionales capaces de llegar al menos a un exaFLOPS: 10 18 FLOPS u operaciones de coma flotante por segundo.

CISTI 2015 | 61

III.

EFICIENCIA ENERGÉTICA

Utilización de operandos de registro: las escrituras y lecturas en memoria tienen más coste que el uso de operandos de registro, los cuales presentan menos abstracción que los accesos a memoria y, por tanto, consumen menos energía. Agrupación de instrucciones: algunas arquitecturas permiten a un procesador ejecutar parejas o conjuntos de instrucciones en un único ciclo. Esto reduce el tiempo de ejecución del programa, con el consiguiente ahorro energético. Reordenación de instrucciones y direccionamiento de memoria. Utilización de bases de datos sobre costes energéticos de cada transacción/instrucción. Optimización de bucles. Gestión de energía dinámica: estableciendo la corriente del hardware en tiempo real, reduciendo la energía residual sin disminuir su rendimiento. Hibernación de recursos desocupados. Realización de tareas en la nube. Gestión de la recursividad: algunos compiladores realizan la conversión de ciertas recursividades en iteraciones, consiguiendo notables resultados.

Es necesario analizar, investigar y evaluar las posibilidades de mejora energética en los diferentes niveles en los que la implementación del código pueda aportar eficiencia: usuario final (es patente la falta de aproximaciones y metodologías para el desarrollo de sistemas orientados a la computación de alto rendimiento considerando la eficiencia energética); sistema operativo y gestores de colas de los clústeres de cómputo; herramientas y librerías estándares de desarrollo; y comunicaciones. La preocupación del sector TIC por el consumo energético y sus consecuencias medioambientales es obvia. Actualmente, el gasto de los centros de datos y los equipos de comunicaciones está en torno al 30 % de la energía consumida en TI. Además, se estima que este gasto sea el que más se desarrolle en los próximos años, siendo cercano al 24 % con respecto a otros consumos en TI (ver Fig. 1). Múltiples trabajos de investigación han mostrado mejoras en la aplicación de estrategias de eficiencia energética a ciertos algoritmos o a la asignación de recursos hardware a distintos procesos [1-3]. Otros trabajos basan su ahorro en mejorar los accesos a recursos de entrada/salida compartidos en el clúster de computación [4-6]. Cabe destacar también las mejoras que se pueden obtener al equilibrar las comunicaciones de red y elegir las mejores interconexiones [7,8]. Por todo lo anterior, es preciso evaluar, analizar e investigar las posibles mejoras en la eficiencia energética de los equipos TI a través de los diferentes niveles en los que la programación del código pueda aportar eficiencia. Es decir, se busca añadir mecanismos para que los desarrolladores e investigadores puedan realizar códigos eficientes sin empeorar las capacidades de cálculo que los centros de HPC pueden ofrecer. IV.

B. Estrategias eficientes en el ciclo de vida software Se puede ahorrar energía durante fases como el análisis, el diseño o la propia implementación. A continuación se muestran distintas estrategias que se pueden seguir durante la implementación software [9]: Utilización de compiladores y entornos de desarrollo orientados al ahorro energético. Utilización de Computación GRID y Cloud. Recursividad versus Iteración: el funcionamiento de la recursividad, basado en el uso de pilas, conduce a un mayor consumo de energía que si se utilizan iteraciones, evitando recursividades innecesarias. Reducción del tiempo de ejecución: en este sentido, cualquier estrategia puede ser útil para reducir el consumo energético [11]. Los algoritmos que tengan una complejidad lineal serán más eficaces energéticamente que aquellos exponenciales. Por lo tanto, las técnicas que reducen la complejidad de los programas, deben ser utilizadas durante las fases de diseño e implementación. Uso de estructuras de datos eficientes.

EFICIENCIA ENERGÉTICA EN EL CÓDIGO

A. Estrategias eficientes en los compiladores Los compiladores eficientes analizan los programas software en tiempo de ejecución y remodelan el código fuente. A continuación se muestran algunas de las técnicas que pueden ser aplicadas local, global o interproceduralmente [9,10]: Omisión de operaciones de caché durante repeticiones innecesarias.

C. Eficiencia de código en C y C++ 1) Funciones virtuales: El uso de polimorfismo y funciones virtuales facilita las fases de prueba, depuración o mantenimiento del programa. Sin embargo, el uso de funciones virtuales afecta negativamente al rendimiento. La configuración más eficiente para el lenguaje es que las funciones virtuales no sean opcionales y que éste no sea virtual. 2) Optimización de los valores de retorno: Los métodos que devuelven un objeto suelen verse obligados a crear previamente un objeto de devolución. Sin embargo, utilizando la Optimización del Valor de Retorno (Return Value Fig. 1: Consumo anual de energía en IT estimado hasta 2020.

CISTI 2015 | 62

Optimization), el compilador detecta que no tiene más razón para crear el objeto que el propio hecho de tener que devolverlo, por lo que aprovecha la ventaja que supone construir el objeto directamente en la localización del valor de retorno externo a la función. Esta acción es, por tanto, significativamente más eficiente. 3) Excepciones: Las excepciones permiten afrontar errores inesperados de ejecución, pero tienen un coste alto en términos de eficiencia. Se estima que el lanzamiento de una excepción es tres veces más costoso que un retorno normal. La manipulación de excepciones está diseñada para el procesamiento de errores, por lo que es aconsejable realizar un uso adecuado para obtener un rendimiento óptimo del código. 4) stdio vs iostream: Se recomienda utilizar la familia cstdio de funciones en lugar de la familia iostream, para mejorar la eficiencia energética. 5) Operadores de prefijo: Aquellos objetos que ofrecen el concepto de incremento y decremento, proveen a menudo de operadores ++ y --. Existen dos tipos de incremento, de prefijo (++x) y de sufijo (x++). En el caso del prefijo, el valor se incrementa y el nuevo valor es devuelto. En el caso del sufijo, el valor se incrementa, pero es devuelto el valor antiguo. Implementar correctamente la opción de sufijo requiere guardar el valor original del objeto, es decir, crear un objeto temporal. Se recomienda evitar operadores de sufijo. 6) Funciones inline: Las funciones inline proporcionan una mayor rapidez debido a que ahorran memoria al no hacer uso de la pila, con el consecuente ahorro de una llamada a la función y la devolución del valor de retorno. El problema es el aumento de espacio que eso conlleva. Por lo tanto, se debe usar inline en funciones que sean livianas y no aumenten demasiado el tamaño del ejecutable.

ocasiones en que se ejecuta el código (pudiendo considerar una probabilidad real del 50%):

D. Optimización de código C y C++ A continuación, se muestran otras técnicas que, además de incrementar la eficiencia del código, mejoran su legibilidad y facilitan su mantenimiento posterior [12]: 1) Paso de argumentos por referencia: Pasar un parámetro por valor requiere que el objeto entero sea copiado, mientras que con el paso por referencia no se invoca al constructor de copia, aunque esto último implica penalizaciones cuando el objeto es usado dentro de la función. Incluso para objetos relativamente pequeños, el paso por valor puede suponer una penalización importante. Las diferencias entre ambas técnicas llegan a ser considerables según los parámetros utilizados. 2) Posponer la declaración de una variable: Declarar una variable puede resultar una operación costosa cuando el objeto posee un constructor o un destructor no trivial. Dado que, a diferencia de su predecesor, en C++ es posible declararlas directamente cuando se necesitan, es recomendable declarar las variables en el mínimo ámbito necesario y sólo inmediatamente antes de ser utilizadas, para poder alcanzar una eficiencia máxima. A continuación se muestra un ejemplo donde la condición necesaria sólo se cumple en un porcentaje determinado de las

Se pretende demostrar la importancia de las estrategias eficientes en la creación de código. Para ello, sobre varios códigos fuente originales, se aplicaron diversas modificaciones, con el fin de probar su eficiencia. La presente sección muestra algunos de los resultados más significativos.

int x; //Declaración fuera del "if" (Se crea la if(condicion) // variable siempre) x = y; //Declaración dentro del "if" (La variable se declara if (condicion) // únicamente al ser usada) int x = y;

Por norma general, declarar los objetos dentro del ámbito del if siempre produce mejoras en la velocidad. 3) Inicialización frente a asignación: Otro vestigio de C es la restricción de que las variables deben ser primero definidas y después inicializadas. En C++ no es necesario. De hecho, es una ventaja poder inicializar la variable en el momento de ser declarada. La inicialización de un objeto invoca directamente al constructor copia del mismo, sin más. Definir un objeto para asignarlo posteriormente implica invocar primero al constructor por defecto y luego al operador de asignación. No tiene sentido hacerlo cuando se puede conseguir lo mismo en un único paso. 4) Listas de inicialización en los constructores: La utilización de métodos constructores y destructores puede implicar un aumento considerable del tiempo de ejecución. Algunos constructores, especialmente aquellos con múltiples objetos o con objetos de jerarquías muy complejas, emplean mucho tiempo para su creación, que se produce en cascada de constructores, lo que ralentiza el proceso de creación. El programador debe, por tanto, ser consciente de esta ejecución silenciosa , de forma que minimice lo máximo posible los cálculos realizados por el constructor. Emplear una lista de inicialización (en lugar de una simple asignación) es un modo sencillo de incrementar la eficiencia en el constructor. V.

RESULTADOS EXPERIMENTALES

A. Cá Para realizar las comprobaciones, se utilizó un código fuente correspondiente a la paralelización del cálculo de la definido como la integral 0 a 1 de (4 / (1+x2)), utilizando una máquina con 4 procesadores GenuineIntel, IA-64 32, DualCore Intel(R) Itanium(R) Processor 9140M. 1) Código original: A continuación se muestra un fragmento del código OpenMP que implementa la solución:

CISTI 2015 | 63

produjo una diferencia de 2,05 segundos entre cout y printf. Con 40 millones de iteraciones, se obtuvo una diferencia de 7,75 segundos a favor de printf.

#pragma omp parallel { #pragma omp master { nthreads = omp_get_num_threads(); } #pragma omp for private(x) reduction(+:sum) schedule(static) for (int i=0; i < NUM_STEPS; ++i) { x = (i+0.5)*step; sum += 4.0/(1.0+x*x); } #pragma omp master { pi = step * sum; } }

VI.

Los resultados, calculando el número con una aproximación integral realizada con 4 hilos en 400 millones de pasos, fueron los siguientes: computed pi = 3.14159 (3.141592653590041) time to compute = 3.85416 seconds

2) Legibilidad versus Tiempo de Ejecución: Con el fin de demostrar que mejorar la legibilidad de un código puede acarrear importantes penalizaciones en su tiempo de ejecución, se decidió modificar el bloque paralelo de sincronización obligatoria, con reducción en la suma 3, de tal manera que el fragmento de código quedó como se muestra a continuación: #pragma omp for private(x) reduction(+:sum) schedule(static) for (int i=0; i < NUM_STEPS; ++i) { x = (i+0.5)*step; x_square = x*x; numerator = 4.0; denominator = 1 + x_square; fraction = numerator / denominator; sum = sum + fraction; /*sum += 4.0/(1.0+x*x);*/ }

Obteniéndose así el siguiente resultado: time to compute = 64.4057 seconds

Es decir, se produjo una diferencia entre los tiempos de ejecución de 60,55 segundos, con una penalización del 1671%. Esto, apoya el hecho de que mejorar la legibilidad de un código llega a perjudicar seriamente el tiempo de ejecución y, consecuentemente, su eficiencia energética. 3) Sobrecarga del operador +: Con objeto de demostrar que el uso de la sobrecarga de operadores mejora los tiempos de ejecución, se decidió modificar el bloque paralelo de sincronización obligatoria, de tal manera que, en lugar de realizar la suma con sobrecarga sum += 4.0/(1.0+x·x); se utilizaba sum = sum + (4.0/(1.0+x·x));. Con este único cambio, el tiempo de ejecución pasó de 3.85416 segundos a 4.99425 segundos. Es decir, se produjo un incremento del 130% en el tiempo de ejecución. 4) Cout versus Printf: Para comprobar las diferencias entre cout y printf se introdujo un fragmento de código dentro del bloque de sincronización. Con 4 millones de iteraciones se 3

La cláusula OpenMP reduction permite especificar una o más variables privadas de subprocesos que están sujetas a una operación de reducción al final de la región paralela.

CONCLUSIONES

El proyecto persigue la optimización, dentro del desarrollo de código para computadores de altas prestaciones, de códigos fuentes de ámbito general, con el fin de obtener rendimientos óptimos y eficiencias máximas, sin perder de vista la correcta implementación de sus funcionalidades. Hasta el momento, el trabajo se ha centrado en mejorar el tiempo de ejecución, obviando, por ahora, otros condicionantes como el compilador, la velocidad del procesador o la propia medición de energía. Se considera demostrada la importancia de las estrategias eficientes en la creación de código. Concretamente, según las ejecuciones realizadas, la aplicación de ciertas modificaciones sobre un mismo código puede dar lugar a idénticos resultados con tiempos de ejecución muy dispares que, a largo plazo, conllevarán importantes penalizaciones en el consumo. A partir de los resultados obtenidos es posible afirmar que, mejorar la legibilidad o la futura comprensión de un código por parte de alguien ajeno a su creación, puede llegar a perjudicar seriamente el tiempo de ejecución del mismo y, consecuentemente, su eficiencia energética. Del mismo modo, la sobrecarga de operadores o la elección de una librería apropiada, son destacadas técnicas a tener en cuenta a la hora de realizar una optimización adecuada. Aunque se trata de un proyecto ambicioso y de complejidad notable, se pretende generar en un futuro próximo una solución software que permita medir de un modo más preciso la productividad de la aplicación de técnicas de eficiencia energética a la generación de códigos fuente. Dicha validación será realizada mediante la utilización de la herramienta sobre diferentes arquitecturas, por parte de diversos investigadores y usuarios de HPC, los cuales presentarían habilidades y experiencias distintas en varios campos de la ciencia. VII. REFERENCIAS [1] [2]

[3]

[4]

[5]

[6]

Zhichun Zhu and Xiadong Zhang. Look-ahead architecture adaptation to reduce processor power consumption. Micro, IEEE, 25(4):10 19, 2005. Anne Benoit, Paul Renaud-Goud, and Yves Robert. On the performance of greedy algorithms for power consumption minimization. In Parallel Processing (ICPP), 2011 International Conference on, pages 454 463. IEEE, 2011. Mauro Marinoni and Giorgio Buttazzo. Balancing energy vs. performance in processors with discrete voltage/frequency modes. In Embedded and Real-Time Computing Systems and Applications, 2006. Proceedings. 12th IEEE International Conference on, pages 294 304. IEEE, 2006. Rong Ge. Evaluating parallel i/o energy efficiency. In Proceedings of the Computing, pages 213 220. IEEE Computer Society, 2010. Rong Ge, Xizhou Feng, and Kirk W Cameron. Improvement of powerperformance efficiency for high-end computing. In Parallel and Distributed Processing Symposium, 2005. Proceedings. 19th IEEE International, pages 8 pp. IEEE, 2005. Nandini Kappiah, Vincent W Freeh, and David K Lowenthal. Just in time dynamic voltage scaling: Exploiting inter-node slack to save energy in mpi programs. In Proceedings of the 2005 ACM/IEEE conference on Supercomputing, page 33. IEEE Computer Society, 2005.

CISTI 2015 | 64

[7]

Torsten Hoefler. Software and hardware techniques for power-efficient HPC networking. Computing in Science and Engineering, 12(6):30 37, 2010. [8] Jayant Baliga, Robert Ayre, Kerry Hinton, and Rodney S Tucker. Energy consumption in wired and wireless access networks. Communications Magazine, IEEE, 49(6):70 77, 2011. [9] Faiza Fakhar, Barkha Javed, Raihan ur Rasool, Owais Malik, and Khurram Zulfiqar. Software level green computing for large scale systems. Journal of Cloud Computing, 1(1):1 17, 2012. [10] Ulrich Kremer. Low power/energy compiler optimizations. 2004.

[11] Kshirasagar Naik. A survey of software based energy saving methodologies for handheld wireless communication devices. Department of Electrical and Computer Engineering, University of Waterloo, 2010. [12] Pete Isensee. C++ optimization strategies and techniques. In Conference proceedings: conference, March 15-19: expo, March 16-18, San Jose, CA: the game development platform for real life, page 419. The Conference, 1999.

CISTI 2015 | 65

Utilizando el Algoritmo binario Fruit Fly para resolver el Problema del Conjunto de Cobertura Using binary Fruit Fly algorithm for solving the Set Covering Problem Broderick Crawford1,2,3, Ricardo Soto,1,4,5, Claudio Torres-Rojas1, Cristian Peña1, Marco Riquelme-Leiva1, Franklin Johnson1,6 y Fernando Paredes7 1

Pontificia Universidad Católica de Valparaíso, Valparaíso, Chile 2 Universidad Finis Terrae, Santiago, Chile 3 Universidad San Sebastián, Santiago, Chile 4 Universidad Autónoma de Chile, Santiago, Chile 5 Universidad Central de Chile, Santiago, Chile 6 Universidad de Playa Ancha, Valparaíso, Chile 7 Universidad Diego Portales, Santiago, Chile

Muchas aplicaciones prácticas son utilizadas en el Resumen problema de conjunto de cobertura, en este artículo se propone resolver dicho problema con un algoritmo llamado Algoritmo binario de la Mosca de la Fruta. Este algoritmo está dividido en 4 fases: iniciación, búsqueda basada en el olfato, búsqueda local basada en la visión y búsqueda global basada en la visión. La metaheurística está basado en el conocimiento de las moscas de la fruta para encontrar su alimento. El algoritmo utiliza un vector de probabilidades para mejorar la exploración. Las pruebas fueron realizadas con 8 distintas funciones de binarización y un método de selección elitista. Los resultados de las pruebas demuestran la eficiencia del algoritmo propuesto. Palabras Clave algoritmo de optimizacion, mosca de la fruta, problema de conjunto de cobertura, funciones de binarización, metaheurísticas. Abstract Many practical applications are used in set covering problems (SCP), in this research, we used to solve SCP: the binary Fruit Fly Optimization algorithms. This algorithm is divided in four phases: initiation, smell based search local vision based search and global vision based search. The metaheuristic is based by the knowledge from the foraging behavior of fruit-flies in finding food. The algorithm used a probability vector to improve the exploration. The tests were performed with eight different transfer functions and an elitist selection method. The test results show the effectiveness of the algorithm proposed.

un problema NP-completo con múltiples de aplicaciones en el mundo real cuyo objetivo principal consiste en encontrar una solución que permita cubrir un conjunto de necesidades al menor costo posible. Un conjunto de necesidades corresponde a las filas (o restricciones) y la solución corresponde a la selección de las columnas que cubren al conjunto de las filas. El algoritmo de la mosca de la fruta está basado en el conocimiento de la mosca para encontrar su alimento. Este algoritmo está dividido en 4 fases: inicialización, búsqueda local basada en el olfato, búsqueda local basada en la visión, y búsqueda global basada en la visión (exploración). Además, este algoritmo utiliza un vector binario para representar una solución, y un vector de probabilidades para mejorar la exploración. Las pruebas fueron realizadas con ocho funciones de binarización diferentes y con el método de selección elitista. Los resultados de estas pruebas muestran la eficacia del algoritmo propuesto. El SCP puede ser formulado de la siguiente manera: n

INTRODUCCIÓN

En esta investigación el algoritmo de optimización binario de la mosca de la fruta fue utilizado para resolver el problema de conjunto de cobertura de la librería de Beasley [1] [2]; el problema, llamado en inglés Set Covering Problem (SCP), es

j

.

(1)

Sujeto a n

Keywords - fruit fly optimization algorithm, set covering problem, transfer functions, metaheuristics.

I.

j

j 1

j 1

ij

j

.

(2)

.

(3)

Dado siendo una matriz binaria de siendo y el conjunto de filas y columnas respectivamente. Se dice que una columna j puede cubrir una fila i si . Donde es un valor no negativo que representa el costo de la columna seleccionada y es una variable de decisión, que puede tener el valor de uno si la

CISTI 2015 | 66

columna es seleccionada o cero si no lo es. El objetivo del SCP es encontrar en subconjunto , detallado en la ecuación (1), de tal manera que cada fila es cubierta por al menos una columna , detallado en las ecuaciones (2) y (3). El SCP también fue resuelto con metaheurísticas tales como: algoritmos luciérnaga [6], búsqueda tabú [4], colonia artificial de abejas [5], y recocido simulado [3]. II.

ALGORITMO MODIFICADO

El algoritmo de la mosca de la fruta (en inglés Fruit Fly Optimization Algorithm, FFOA) fue creado por Pan [10] y está basado en la manera de encontrar comida para alimentarse. FFOA es utilizado para resolver problemas continuos como: predicción de cargas energéticas [12], servicios web de subastas logísticas [8], y prevención de problemas financieros [10]. Para resolver el SCP, fue creado un nuevo algoritmo basado en el FFOA por Wang [11]: el algoritmo binario de la mosca de la fruta (en inglés, Binary Fruit Fly Optimization Algorithm, bFFOA). Este algoritmo fue modificado por el autor de tal manera que pueda resolver problemas con soluciones binarias, y utilizar un vector binario para representar la solución y un vector de probabilidades para generar la población; Además, el autor adoptó cambiar de 0 a 1 (o viceversa) para explotar el vecindario en la búsqueda local basada en el olfato, y crear un método de búsqueda global basado en la visión para mejorar la habilidad de exploración. El bFFOA está divido en cuatro fases: inicialización, búsqueda local basada en el olfato, búsqueda local basada en la visión, y búsqueda global basada en la visión. En este artículo, el bFFOA es adaptado y mejorado utilizando otras funciones de binarización y otro método de discretización. Los problemas pueden ser descargados de la librería OR de Beasley [1] [2]. El algoritmo binario está dividido en las siguientes fases: A. Inicialización En el bFFOA, cada mosca de la fruta es una solución y está representada por un vector binario de bits, por ejemplo, una su -ésima columna , es una mosca variable de decisión, en este caso es un 0 o un 1, donde 1 significará que dicha columna fue seleccionada (o pertenece) a la solución y un 0 si es que no. Se generan moscas mediante un vector de probabilidades de dimensiones donde representa la iteración (o generación) en la que se encuentra, y es la probabilidad de que una mosca sea igual a 1. B. Búsqueda basada en el Olfato En esta fase, se generan aleatoriamente un número de vecinos alrededor de cada mosca de la fruta , utilizando el método de búsqueda basado en el olfato. Para crear estos vecinos, primero se realiza vecinos copias de la mosca , luego se debe seleccionar columnas al azar de la mosca , y éstas son cambiadas, por ejemplo, una columna que va a ser modificada en una mosca , si su valor es 1, éste es reemplazado por 0, y así mismo en caso contrario. En total se obtendrá moscas de

la fruta las cuales son evaluadas utilizando la función objetivo, si una solución es inviable esta es reparada. C. Búsqueda Local basada en la Visión Similar al algoritmo original, en el método de búsqueda local basada en la visión, las moscas de la fruta encuentran su mejor vecino local utilizando la visión, y ellos vuelan hacia el mejor vecino en dicha vecindad. Es decir, se compararán las moscas de la fruta de las vecindades para lograr encontrar la mejor mosca de la fruta. D. Búsqueda Global basada en la Visión Este método de búsqueda fue propuesto por Wang [11] para mejorar la habilidad de exploración o búsqueda global basada en la visión, mostrada en la ecuación (4). (4) Las moscas de la fruta de la siguiente generación son actualizadas con el vector de probabilidades utilizando una función de binarización propuesta en [9] y ésta es calculada con la información diferencial entre la mejor y dos moscas mosca de la fruta de dicha iteración seleccionadas al azar y , el autor, además utiliza un coeficiente de sensibilidad de la visión para mejorar la exploración. III.

PRUEBAS

El algoritmo bFFOA ha sido implementado en Java y los valores de los parámetros que fueron utilizados son detallados en la Tabla 1. Los experimentos fueron ejecutados 30 corridas por cada instancia y luego serán mostrados los promedios de estas 30 corridas. TABLE I.

PARÁMETROS

Parámetros

Valor

N

10

S

5

b

15

C

3

t

400

En este artículo se resolverán problemas de conjuntos de cobertura con soluciones no conocidas que poseen hasta 1.000 filas y 10.000 columnas, ubicadas en 20 archivos. Estos conjuntos de problemas (NRE, NRF, NRG, NRH) fueron obtenidos de Beasley [2]. Además, se ha propuesto utilizar las 8 funciones de binarización en [9] para resolver estos problemas. Estas funciones de binarización, definen la probabilidad de cambiar un elemento de la solución de 0 a 1, o viceversa [9]. Después de actualizar el vector de probabilidades con las funciones de binarización (V-shaped o S-shaped), un elemento de una mosca de la fruta es actualizado utilizando el siguiente método:

CISTI 2015 | 67

Fi d (t 1)

d Fbest (t ) if

rand () p d (t ) otherwise

0

(5)

En la tabla 2 se muestra los resultados obtenidos de manera detallada. La tercera columna BKS detalla la mejor solución conocida hasta el momento para esa instancia. Las siguientes columnas MIN, MAX, AVG representan valor de la función objetivo mínimo, máximo, y promedio respetivamente.

TABLE II. Problema NRE.1 NRE.2 NRE.3 NRE.4 NRE.5 NRF.1 NRF.2 NRF.3 NRF.4 NRF.5 NRG.1 NRG.2 NRG.3 NRG.4 NRG.5 NRH.1 NRH.2 NRH.3 NRH.4 NRH.5

Funciones Binarias V4 V4 V4 V4 V4 V4 S4 V1 V4 V3 S4 V4 S4 V4 S4 S3 S3 S3 S3 S4

RESULTADOS

BKS

MIN

MAX

AVG

RPD

29 30 27 28 28 14 15 14 14 13 176 151 166 168 168 63 63 59 59 55

29 30 28 29 28 14 15 15 15 14 178 159 170 170 173 66 66 61 61 55

29 33 29 31 30 16 17 19 16 16 184 162 173 179 179 71 66 65 66 60

29.00 32.03 28.73 29.73 28.93 15.00 15.90 16.83 15.5 15.10 180.30 160.43 171.57 172.20 175.00 67.47 66.00 63.46 63.50 58.07

0 0 3.70 3.57 0 0 0 7.14 7.14 7.69 1.14 3.25 2.41 1.19 2.98 4.76 4.76 3.39 3.39 0

La última columna reporta la desviación porcentual relativa (en inglés, relative percentage deviation, RPD), mostrada en la ecuación (5), y este valor representa la desviación del valor mínimo MIN del mejor valor obtenido BKS [13]. (5)

IV.

CONCLUSIÓN

En este articulo, una representación del bFFOA fue desarrollada para resolver problemas de conjunto de cobertura. Este algoritmo fue mejorado eligiendo una combinación de ocho diferentes funciones de binarización y utilizando un método propuesto de selección elitista. Para resolver los 20 problemas de la librería OR, se enfocó el desarrollo en mejorar el algoritmo y mostrar los resultados interesantes. En las soluciones, los experimentos mostraron bastantes soluciones óptimas. El algoritmo funcionó de manera robusta, porque utilizando los mismos parámetros para las diferentes instancias, se ha obtenido buenos resultados. El algoritmo liviano de ejecutar, ya que se obtuvo buenos resultados con un costo computacional bajo. El propósito de esta investigación fue obtener muy buenos resultados (óptimos locales o mejores óptimos conocidos) en pocas iteraciones.

Actualmente, se está desarrollando una versión discreta del algoritmo (soluciones representadas por filas), donde se espera tener mejores o similares resultados a la actual versión del algoritmo. Las mejores combinaciones donde se obtuvieron los buenos resultados, son: función de binarización S3 y S4 con el método de selección elitista provee un buen balance entre la exploración y la explotación. En el futuro, se espera resolver otros problemas de conjunto de cobertura como: problemas de costo único; problemas asignación en los trenes de Italia, en aviones de American Airlines; problemas generados aleatoriamente, entre otros. Debido a los buenos resultados y la simplicidad de este algoritmo, podría ser utilizado para resolver otros problemas de origen combinatorial. AGRADECIMIENTOS El autor Broderick Crawford es apoyado por CONICYT/ FONDECYT/REGULAR/1140897, Ricardo Soto es apoyado por CONICYT/FONDECYT/INICIACION/11130459 y Fernando Paredes es apoyado por CONICYT/FONDECYT/ REGULAR/ 1130455. REFERENCIAS BIBLIOGRÁFICA [1]

J. E. Beasley. An algorithm for set covering problem. European Journal of Operational Research, 31(1):85 93, 1987. [2] J. E. Beasley. A lagrangian heuristic for set-covering problems. Naval Research Logistics (NRL), 37(1):151 164, 1990. [3] M. Brusco, L. Jacobs, G. Thompson, 1999. A morphing procedure to supplement a simulated annealing heuristic for cost- and coveragecorrelated set-covering problems. Annals of Operations Research 86, 611 627. [4] M. Caserta. Tabu search-based metaheuristic algorithm for large-scale set covering problems. In: Doerner, K., Gendreau, M., Greistorfer, P., Gutjahr, W., Hartl, R., Reimann, M. (Eds.), Metaheuristics. Vol. 39 of Operations Research/Computer Science Interfaces Series. Springer US, pp. 43 63, 2007. [5] B. Crawford, R. Soto, R. Cuesta, and F. Paredes. Application of the Artificial Bee Colony Algorithm for Solving the Set Covering Problem. The Scientific World Journal, Vol. 2014 (2014), Article ID 189164, 8 pages, 2014. [6] B. Crawford, R. Soto, M. Olivares-Suárez, and F. Paredes. A Binary Firefly Algorithm for the Set Covering Problem. In proceedings of 3rd Computer Science On-line Conference 2014 (CSOC), Modern Trends and Techniques in Computer Science, pages 65-73, AISC 285, Springer, 2014. [7] M. R. Garey and D. S. Johnson. Computers and Intractability; A Guide to the Theory of NP-Completeness. W. H. Freeman & Co., New York, NY, USA, 1990. [8] S. M. Lin. Analysis of service satisfaction in web auction logistics service using a combination of fruit fly optimization algorithm and general regression neural network. Neural Computing and Applications, 22(3 4):783 791, 2013. [9] S. Mirjalili and A. Lewis. S-shaped versus v-shaped transfer functions for binary particle swarm optimization. Swarm and Evolutionary Computation, 9:1 14, 2013. [10] W. T. Pan. A new fruit fly optimization algorithm: Taking the financial distress model as an example. Knowl.-Based Syst., 26:69 74, 2012. [11] L. Wang, X. Zheng, and S. Wang. A novel binary fruit fly optimization algorithm for solving the multidimensional knapsack problem. Knowl.Based Syst., 48:17 23, 2013.

CISTI 2015 | 68

[12] H. Z. Li, S. Guo, C. J. Li, and J. Q. Sun. A hybrid annual power load forecasting model based on generalized regression neural network with fruit fly optimization algorithm. Knowledge-Based Systems, 37:378 387, 2013.

[13] Z. G. Ren, Z. R. Feng, L. J. Ke, Z. J. Zhang. New ideas for applying ant colony optimization to the set covering problem. Computers & Industrial Engineering, 58: 774 784, 2010.

CISTI 2015 | 69

Identificando Indicadores de Engajamento como Suporte à Pesquisas Educacional Identifying Engagement Indicators to Support Educational Research UFPE

Luma da Rocha Seixas Centro de Informática Pernambuco [email protected]

Brasil

UFPE

Alex Sandro Gomes Centro de Informática Pernambuco [email protected]

Brasil

Ivanildo José de Melo Filho IFPE Campus Belo Jardim Pernambuco Brasil UFPE Centro de Informática Pernambuco Brasil [email protected] Resumo Este trabalho tem como objetivo apresentar indicadores de engajamento como suporte à pesquisas educacionais. É sabido que a dificuldade de engajamento dos estudantes continua sendo um dos maiores desafios enfrentados pelos professores. Normalmente as pesquisas apresentam indicadores ou variáveis de engajamento com o propósito de observar se houve alguma mudança no contexto de suas intervenções no processo de ensino mediados ou não por tecnologias. O método utilizado consistiu na realização de revisão da literatura do tipo narrativa cujo propósito busca de sintetizar os estudos individuais sobre temas específicos. O resultado apontou 10 (dez) indicadores de engajamento. É importante destacar que estes podem servir como apoio para futuras pesquisas no âmbito educacional como também ser aplicado como estratégia na identificação do nível de engajamento dos estudantes nas diferentes modalidades de ensino. Palavras Chave Educacionais.

Indicadores, Engajamento, Pesquisas

Abstract This work aims to present engagement indicators in support of educational research. It is known that the difficulty of engagement of students remains one of the biggest challenges faced by teachers. Usually the research show indicators or engagement variables in order to see if there was any change in the context of its interventions in the teaching process mediated by technology or not. The method used consisted of narrative type of literature review whose purpose search synthesize the individual studies on specific topics. The result showed ten (10) engagement indicators. Importantly, these can serve as support for future research in the educational field as well be applied as a strategy to identify the level of engagement of students in the various modalities of teaching. Keywords

Indicators, Engagement, Educational Studies.

I.

INTRODUÇÃO

Estudos apontam a relação entre engajamento, rendimento escolar e o desenvolvimento social e cognitivo dos estudantes [1] [2] [3] [4] [5]. Outras pesquisas ressaltam a dificuldade para manter os estudantes engajados em suas atividades [6] [7]. Na mesma direção, o estudo de [8] aponta que ainda é complexo para os estudantes desenvolverem os níveis de engajamento necessários para alcançar o potencial de aprendizado completo. Segundo os autores, existe o risco de que apenas pequenos grupos engajem-se em suas atividades. Para [9], o engajamento dos estudantes em atividades também responde a modificações introduzidas no contexto. Dessa maneira, o suporte aos estudantes, as relações entre colegas de classe, a estrutura da sala de aula, o suporte à autonomia e as características das atividades são elementos de contexto que interferem na relação que os estudantes estabelecem com as atividades que lhes são propostas [10] e [11]. Dessa forma, as pesquisas sobre engajamento estudantil propõem indicadores ou variáveis com o intuito de permitir observar relações no contexto de suas intervenções. Tais estudos combinam variáveis, tais como, comportamento, emoção e cognição em uma única escala de avaliação, fazendo com que a uniformização desses indicadores seja inexistente. O objetivo deste trabalho é apresentar o resultado de um estudo da literatura sobre a identificação de indicadores de engajamento como suporte à pesquisas educacionais. Este trabalho tem como propósito apoiar futuras pesquisas nesta área de ensino, inclusive mediado por tecnologias, servindo também como apoio na identificação de comportamentos que contribuam com o engajamento de estudantes em diferentes modalidades de ensino.

CISTI 2015 | 70

Este artigo encontra-se organizado da seguinte forma: A seção II traz uma revisão da literatura sobre motivação e engajamento, a seção III apresenta o procedimento metodológico utilizado na pesquisa. A seção IV apresenta uma discussão sobre os indicadores de engajamento encontrados. E, por fim, na seção V apresentam-se as conclusões. II.

REVISÃO DA LITERATURA

A. Sobre Motivação Na literatura identifica-se que muitas vezes o conceito de motivação aparece relacionado com o de engajamento. Por estarem muito próximos eles são frequentemente confundidos [12]. Contudo, é importante esclarecer que eles referem-se a dois processos distintos e que se relacionam. Para [13], a motivação é um aspecto essencial no processo de aprendizagem, pois a intensidade e a qualidade do envolvimento exigido para aprender dependem dela. Conforme [14], a motivação é um processo psicológico no qual interagem as características de personalidade e as características ambientais percebidas pelos estudantes. Isso implica que ela é influenciada tanto por mudanças no contexto ao qual eles estão inseridos quanto as que ocorrem dentro em si. Acerca da relação entre motivação e engajamento, [14] descreve a motivação como um processo psicológico que serve como requisito para o comportamento observável de engajamento [11]. A motivação envolve aspectos comportamentais, emocionais e cognitivos, podendo ser modificada a partir de mudanças introduzidas no contexto [14]. Este estudo destaca ainda que ela está relacionada às razões ou motivos que levam o indivíduo a agir de determinada maneira, enquanto que o engajamento se refere à relação estabelecida entre indivíduo e atividade. Para [15], o engajamento dos estudantes é um fator crítico para a motivação durante o processo de aprendizagem. Isso pode ser observado também analisando a literatura sobre motivação escolar e aprendizagem que tem adotado o conceito de engajamento o como variável dependente da motivação [9] [16] [17] [11]. B. Sobre Engajamento Uma série de estudos sobre o engajamento de estudantes foram encontrados na literatura. Contudo, ainda não existe consenso sobre sua definição [9] [7] [18]. Dentro do conjunto consultado, as definições encontradas geralmente incluem um componente psicológico e comportamental como apresentado em [19] [9]. Segundo [7], é difícil encontrar uma definição que sustente todos os elementos que são considerados essenciais no engajamento de estudantes. Elementos incluindo: aprendizagem ativa [31], aprendizagem colaborativa [32] [33] e [34], participação [24] e [35] e comunicação entre professores e estudantes [36] [37] [38] [39] são utilizados na definição de engajamento. Outros autores, a exemplo de [6] e [9], analisam o engajamento com o intuito de discutir as atitudes dos estudantes em relação à escola. Para eles, o não-engajamento do aluno

geralmente indica uma forma de abandono da mesma. Encontra-se na literatura, o conceito também relacionado à forma como os estudantes interagem com as atividades escolares que lhes são propostas. Quando eles estão envolvidos com suas atividades, tendem a persistir na realização destas, apesar dos desafios e obstáculos [20] [21] [22] e [23]. Algumas definições envolvendo as noções de interesse, esforço, motivação foram investigadas por [24] através de dados obtidos a partir do questionário do Programa para Avaliação Internacional dos Estudantes (Programme for International Student Assessment - PISA). O autor utilizou informações sobre as atitudes e valores dos estudantes e referências a respeito das suas habilidades. O autor [24] investigou também o engajamento aproveitando que o relatório examinava várias questões relativas à participação dos estudantes e o sentimento de pertencer a comunidade escolar. Os resultados forneceram evidências de que o engajamento de estudantes é influenciado pela vontade de aprender e por incentivos que ele recebe para tal. Outra pesquisa buscou definir o engajamento em termos de interesse e esforço dos estudantes [25]. Para os autores, um aluno engajado realiza tarefas atribuídas e também o faz com entusiasmo e empenho. Para isso, no referido estudo, os autores mencionam algumas técnicas no intuito de identificar o interesse dos estudantes e com isso, favorecer o engajamento. Por exemplo, orientam professores a reconhecer assuntos que os estudantes já conhecem e os conteúdos os estudantes gostariam de aprender [25]. Em [26] e [19] é sugerido a existência de uma relação entre o período de tempo em que os estudantes estão engajados nas atividades e seu desempenho acadêmico. Para [26], manter os estudantes engajados é um dos aspectos mais desafiadores do ensino. Ainda nesse contexto, os autores indicam a dificuldade em mensurar o quão o aluno está realmente envolvido com as atividades em sala de aula. Com base nessa dificuldade, eles propuseram investigar o tempo que os estudantes dedicam à realização de uma atividade. Para isso, utilizaram um Sistema de Análise do Comportamento em sala de aula, do inglês Classroom Behavioral Analysis System (CBAS). O objetivo tinha como alvo medir os níveis de engajamento estudantil levando em consideração a realização de atividades online e off-line. Foram avaliadas duas perspectivas: Na primeira, alguns estudantes tinham aula no formato tradicional de ensino e na segunda utilizavam um ambiente de simulação no computador. Os resultados apontaram que os estudantes cujas aulas ocorreram com auxílio do ambiente de simulação permaneceram mais tempo envolvidos com a realização das atividades e obtiveram melhor desempenho no curso. Em [19], foi discutida a relação entre o tempo de realização de uma atividade e o engajamento utilizando os dados obtidos a partir de um LMS (Learning management Systems). Para os autores, os estudantes que estavam ativamente envolvidos no curso iriam acessá-lo com maior frequência e por períodos mais longos de tempo do que os estudantes menos engajados. Consequentemente, eles sugeriram que os estudantes que estavam ativamente engajados no curso deveriam obter melhores resultados do que os estudantes menos envolvidos. É

CISTI 2015 | 71

evidenciado em [27] [28] [29] e [30] que o engajamento como um fenômeno resultante da combinação entre os fatores relacionados ao ambiente institucional e instrucional que envolve os estudantes.

responsabilidade pela sua própria aprendizagem. Quando isso ocorre, o resultado são estudantes altamente engajados, comprometidos com a realização de suas atividades mas que também contribuem para o sucesso dos demais.

Para avaliar essa perspectiva, [27] utilizou o questionário Beginning Post-secondary Student Survey (BPS). O foco do estudo foi o efeito das estruturas institucionais sobre o engajamento dos estudantes. Para isso, a pesquisa investigou variáveis como: (i) a seletividade (apenas estudantes de alta qualidade), (ii) as despesas educacionais que os estudantes tinham, (iii) a localização da escola (cidade grande, cidade pequena), (iv) a quantidade de estudantes, formação do corpo docente (mestrado, doutorado), e (v) a quantidade de programas de pós-graduação. Os resultados sugeriram que essas estruturas institucionais afetam o engajamento dos estudantes de forma previsível e substantivamente significativas.

Para [40] e [30], o conceito de engajamento dos estudantes encontra-se estruturado em torno de duas variáveis principais: (1) disposição de os estudantes investem em atividades com propósito educacional, e (2) o estímulo das instituições em aplicar práticas educativas mais eficazes.

Dentro desta mesma perspectiva [28] utilizou o instrumento NSSE (National Survey of Student Engagement) para avaliar o engajamento. As evidências apontam que o engajamento também deve ser capturado através das interações entre os estudantes e sua relação com as instituições que frequentam. Em [29], utilizaram o mesmo instrumento do estudo anterior, o NSSE. A sua proposta diferencia-se pois foca nos professores como fonte de informações sobre o compromisso dos estudantes. Os resultados também apontaram o ambiente institucional como relevante para o engajamento dos estudantes. Ao realizar um levantamento sobre o uso so termo engajamento, [9] destacou uma proliferação de concepções, definições e formas de medir o engajamento que apenas diferem ligeiramente e pouco contribuindo para uma clareza conceitual. Para [31], os professores precisam tornar o conteúdo a ser apresentado em sala de aula mais significativo e desafiador para os estudantes. E para isso, o autor sugere o uso da aprendizagem ativa, com menos foco na transmissão de informações, e mais no desenvolvimento das habilidades dos estudantes. Enquanto no modelo tradicional de ensino o professor é visto como detentor do conhecimento, na aprendizagem ativa, a maior ênfase deve ocorrer na exploração que os estudantes fazem de suas próprias atitudes e valores. O autor destaca ainda que através desse processo é possível envolver todos os estudantes nas atividades e incentivá-los a desenvolver uma compreensão mais profunda do conteúdo. Com isso, os estudantes transitam de meros receptores de informações para participantes ativos e engajados em seus processos de aprendizagem [31]. Por sua vez, [32] aponta que os professores devem propiciar oportunidades para que os estudantes colaborarem entre si. Segundo o autor, essa colaboração apóia o desenvolvimento da compreensão dos estudantes e favorece o engajamento. Utilizando o mesmo enfoque, [33] e [34] acrescentam que a aprendizagem colaborativa permite aos estudantes compreender que o trabalho colaborativo requer tempo e esforço. Mesmo podendo contar com a ajuda de outros, eles precisam assumir a

Uma definição completa sobre o tema é encontrada no trabalho de [37], no qual o engajamento dos estudantes é definido como o nível de participação e interesse intrínseco que um aluno apresenta na escola. Para o autor, o engajamento envolve comportamentos como: a persistência, esforço, atenção e atitudes como motivação, valores positivos de aprendizagem, entusiasmo e interesse. Com isso, os estudantes engajados buscam atividades, dentro e fora da sala de aula, que os levam ao sucesso da sua aprendizagem [37]. De acordo com [9], podem ser distinguidas na literatura três definições para o engajamento: (i) o comportamental, (ii) emocional e (iii) o cognitivo. O engajamento comportamental envolve a participação e o envolvimento dos estudantes em atividades escolares e em atividades extracurriculares e as condutas positivas empreendidas pelos estudantes durante a resolução das atividades. O engajamento emocional envolve as reações afetivas e emocionais dos estudantes diante das atividades, dos sujeitos e de outros elementos que compõe o ambiente escolar. Interesse, felicidade, bem estar, desgosto, ansiedade, frustração são exemplos de tais reações. Por fim, o engajamento cognitivo envolve o investimento psicológico do estudante na aprendizagem. Este é marcado pelo esforço empreendido pelo estudante para compreender o que é estudado e para atingir níveis mais elevados de compreensão sobre determinado tópico de estudo. III.

PROCEDIMENTO METODOLÓGICO

O procedimento metodológico adotado nesta investigação segue as orientações contidas em [41] e [42]. Trata-se de uma revisão narrativa de literatura com o objetivo de sintetizar os estudos individuais de forma narrativa. Envolve extrair, verificar e sumarizar informações sobre métodos e resultados dos estudos selecionados [41]. Quando comparada à revisão sistemática, a revisão narrativa apresenta uma temática abrangente, não exigindo um protocolo rígido. Alem disso, a busca das fontes não é pré-determinada nem específica [42]. A partir desse processo metodológico de revisão foi possível observar a dificuldade de padronização dos elementos que permitem identificar o engajamento dos estudantes. Como muitos desses eram duplicados em algumas pesquisas, buscouse sintetizá-los para efeito de organização. Esses foram agrupados e deram origem aos indicadores descritos na Tabela 1.

CISTI 2015 | 72

TABELA I. INDICADORES DE ENGAJAMENTO IDENTIFICADOS.

Indicadores Autonomia Execução Social Entrega Participação Colaboração Cooperação Questionamento

Descrição Corresponde a capacidade do aluno em estudar em casa de forma autônoma e tomar decisões sem a intervenção contínua do professor. É identificado quando o aluno realiza as atividades propostas pelo professor em sala de aula. É identificada quando o aluno tem um bom relacionamento com os colegas e o professor. O aluno não apenas realiza as atividades, mas essas ocorrem sempre nos prazos estabelecidos pelo professor. Durante a realização de discussões em sala de aula ou explanação do conteúdo, o aluno sempre contribui. O aluno tem o costume de ajudar os demais colegas da sala de aula, mesmo não sendo um trabalho em equipe. Durante a realização de trabalhos em equipe, o aluno tem iniciativa e contribui com seu grupo para atingir os objetivos estabelecidos. O aluno não se sente intimidado ou constrangido em questionar o professor sobre os conteúdos estudados.

Fonte [43] [44] [6] [45] [18] [17] [11] [46] [47] [43] [6] [37] [48] [10] [49] [50] [43] [44] [51] [45] [18] [28] [52] [46] [43] [18] [37] [20] [10] [24] [45] [26] [18] [37] [21] [48] [10] [17] [32] [35] [52] [44] [45] [26] [32] [35] [44] [45] [46] [20] [6] [37] [21] [53]

Organização do Ambiente

O aluno mantém a sala de aula sempre limpa e organizada.

[6]

Diversão

O aluno realiza as atividades não apenas pela obrigação, mas por considerar estas divertidas.

[54] [55] [43] [56] [18] [57] [58]

IV.

DISCUSSÃO SOBRE OS INDICADORES IDENTIFICADOS

Conforme apresentado anteriormente, pesquisas relacionadas ao engajamento de estudantes apresentam indicadores ou variáveis. Contudo, não há uma uniformização desses indicadores. Uma das variáveis utilizadas é a autonomia [18] [17] [11]. Esta, indica se estudantes conduzem por si próprio o processo de acompanhamento e efetivação da sua aprendizagem [43] [44]. Com isso, eles passam a buscar por si mesmos as informações, o que implica em um engajamento positivo [46] [47]. Em [45] os autores sugerem ainda que os estudantes engajados geralmente são intrinsecamente motivados e precisam sentirem-se competentes para trabalhar de forma autônoma e dessa forma obter êxito em suas atividades. Para outros autores, a realização das atividades em sala de aula é apontada como indício de engajamento [48] [10]. Em estudo realizado por [43], os estudantes engajados passavam mais da metade do tempo realizando as atividades solicitadas pelo professor. Para [6], ao cumprir suas atividades o estudantes esperam obter sucesso na aprendizagem, o que aumenta o seu nível de comprometimento. De outra forma, [44] afima que a relação entre estudantes com os colegas e professores é um fator importante através da qual é possível analisar o engajamento. Como apontado por [51], uma relação solidária e não conflituosa entre professores e estudantes encoraja o engajamento estudantil e consequentemente, promove um melhor desempenho acadêmico. Outros estudos, indicam ainda que as interações

entre professores e estudantes podem afetar de forma indireta a aprendizagem [50] [28] e [52]. Com uma outra perspectiva, estudos como de [18] e [10] apontam que apenas a realização de atividades não é suficiente para identificar o engajamento dos estudantes. Segundo eles, elas devem ocorrer no tempo determinado para sua execução. Saber gerenciar o seu tempo de forma eficaz e completar seu trabalho dentro dos prazos estabelecidos também é um indício de comprometimento [37] [20]. Para [48] [21] [10] [17] [37] e [18], a participação do aluno nas discussões em sala de aula coloca em evidência a sua motivação em relação à aprendizagem. Esse diálogo não apenas favorece a troca de informações entre professores e estudantes, como a falta dele pode indicar que os estudantes não estão compreendendo o assunto abordado [35] [24] [26]. Segundo [26] e [45], a colaboração também deve ser levada em consideração ao se avaliar o engajamento dos estudantes. Os estudos descritos em [44] apontam que os estudantes também constroem seu conhecimento através da reflexão, discussão e tomada de decisões que ocorrem com seus pares. Essa colaboração entre eles tem um papel fundamental no desenvolvimento do grupo e na aprendizagem. Estudos como de [32] e [35] observaram altos níveis de engajamento em estudantes que tinham capacidade para trabalho colaborativo e para manter discussões de qualidade. Em [20] o engajamento é avaliado a partir da perspectiva da realização de trabalhos em equipe. Quando um grupo está engajado em uma investigação e cujos integrantes apresentamse motivados e bem articulados entre si obtém significativos

CISTI 2015 | 73

ganhos para a aprendizagem [45] [44]. As atividades em grupo engajam os estudantes e os estimulam a interagir com os demais de forma ativa no intuito de questionar, trocar ideias com os colegas, e com isso formular os seus próprios pensamentos e comentários [46]. Conforme [53], o engajamento também pode ser avaliado a partir do fato dos estudantes sentirem-se confortáveis em fazer questionamentos. O autor indica que é possível identificar se o aluno está engajado em determinada atividade com base nas perguntas feitas pelos estudantes. Pesquisas de [21] e [37] acrescentam que as questões feitas podem estimular um outro grupo a participar, contribuindo para o comprometimento de todos. Outro fator que pode indicar o engajamento dos estudantes é a organização do ambiente escolar. Pesquisas argumentam que sem organização adequada, é difícil manter o controle da sala e isso pode prejudicar o processo de aprendizagem dos estudantes [6]. A maneira como a sala está organizada também reflete o comprometimento dos estudantes. Quando os estudantes criam tumultos e desorganizam o espaço é provável que não estejam completamente envolvidos com o processo de aprendizagem [6]. Por fim, outros estudos concluem que há uma forte relação entre a diversão e engajamento [54] e [55]. Para [56] o comprometimento pode ser avaliado baseado no nível de retenção, envolvimento e satisfação do aluno. Com isso, quanto mais realizar atividades prazerosas, melhor o seu nível de engajamento. O resultado da aplicação dos indicadores aqui apresentados pode ser encontrada [58] e [59]. Nesse estudos, os mesmos foram utilizados para avaliar a efetividade de ferramentas de gamificação de uma sala de aula. A investigação mostrou que o uso de gamificação teve efeitos positivos no engajamento dos estudantes. Os estudantes que apresentaram os maiores índices de engajamento nos indicadores, também foram os que receberam mais badges do professor, em contraste, ficaram os estudantes que apontaram menores índices nos indicadores e que receberam menos badges do professor. V.

CONCLUSÕES

Este estudo teve como objetivo identificar e classificar indeicadores de engajamento a partir de uma revisão narrativa da iteratura. Os resultados sinalizam a existência de 10 indicadores de engajamento que podem emergir em diferentes espaços de aprendizagem nas diferentes modalidades de ensino. Os indicadores identificados podem ser utilizados como parâmetros para avaliar o comportamento de estudantes no sentido de verificar que estratégias podem ser utilizadas para favorecer o engajamento em atividades de aprendizagem. É importante observar que os indicadores sinalizam resultados dentro do estrato da literatura descrito no procedimento metodológico. Além disso, investigações baseadas nesses indicadores podem ser conduzidas de modo que possam ser averiguadas quais desses indicadores mais descriminam evidências em diversas estratégias em diferentes modalidades de ensino.

REFERÊNCIAS [1] Gresalfi, M. Barab, S. Siyahhan, S. Christensen, T. Virtual worlds, conceptual understanding, and me: designing for consequential engagement. Emerald Group Publishing Limited. Vol. 17 no. 1, 2009. pp. 21-34. [2] Tomkinson, B. Hutt, I.Online PBL: a route to sustainability education?. Campus-Wide Information Systems Vol. 29 No. 4, 2012 pp. 291-303. Emerald Group Publishing Limited. [3] Basioudis, I. G. Lange, P. Suwardy, T. Wells perceptions of a Learning Management System : An international comparison. (2006). AAFAANZ Conference. Research Collection School Of Accountancy. [4] Coates, H. James, R. Baldwin, G. A critical examination of the effects of learning management systems on university teaching and learning.2005. [5] Melero, J. Hernández-Leo, D. Blat, J. A Review of Constructivist Learning Methods with Supporting Tooling in ICT Higher Education: Defining Different Types of Scaffolding. Journal of Universal Computer Science, vol. 18, no. 16 (2012), 2334-2360. [6] Sullivan P. Mornane, A. Prain, V. Campbell, C. Deed, C. Drane, S. Faulkner, M. Mcdonough A. Smith, C. (2009) Junior Secondary Students' Perceptions of Influences on Their Engagement with Schooling. Australian Journal of Education. 2009. DOI: 10.1177/000494410905300206. [7] Gibbs R. Poskitt J. Student Engagement in the Middle Years of Schooling (Years 7-10): A Literature Review. 2010. Report to the Ministry of Education. [8] Gapp, R. Fisher what makes a successful virtual group. Education + training V. 54 No. 2/3, 2012. pp.167-179. [9] Fredricks, J. A. Blumenfeld P. C. Paris A. H.School Engagement: Potential of the Concept, State of the Evidence. Review of Educational Research. Spring 2004, Vol. 74, No. 1, pp. 59-109. [10] Finn, J. D., Pannozzo, G. M., & Voelkl, K. E. (1995). Disruptive and inattentive- withdrawn behavior and achievement among fourth graders. Elementary School Journal, 95, 421-454. [11] Skinner E. A., Belmont M. J. (1993). Motivation in the classroom: Reciprocal effect of teacher behavior and student engagement across the school year. Journal of Educational Psychology, 85, 571 581. [12] Fletcher, A. (2007) Defining Student Engagement: A literature review. Disponível em: . Acesso em: 14 fev. 2015. [13] Williams, C. K. Wiliams, C. C. Five key ingredients for improving student motivation. Research in Higher Education Journal. [14] Huertas, J. A. (2001). Motivación. Querer aprender. Buenos Aires. Aique. [15] Beeland, W. D. (2002). Student engagement, visual learning, and technology: Can interactive whiteboards help. Disponível em: ,. Acesso em: 14 fev. 2015. [16] Ladd, G.W. Dinella, L.M. (2009). Continuity and change in early school eighth grade? Journal of Educational Psychology, 101(1), 190-206. doi: 10.1037/a0013153. [17] Reeve J. Jang H., Carrell, D.

Jeon S. Barch

Emotion, Vol. 28, No. 2, 2004. [18] Taylor, L. Parsons Issues in Education. 14(1). Vol. 14, No. 1. ISSN 1099-839X. [19] Beer C. Clark K. Jones D. (2010) Indicators of engagement. In Curriculum, technology and transformation for an unknown future. Proceedings of ASCILITE Sydney 2010. [20] Saeed S. Zyngier D. How Motivation Influences Student Engagement: A Qualitative Case Study. Journal of Education and Learning Vol. 1, No. 2 2012. ISSN 1927-5250. E-ISSN 1927-5269.

CISTI 2015 | 74

[21] Stovall, I. (2003). Engagement and Online Learning. UIS Community of Practice for E-Learning. [22] Krause, K. Coates in first-year University. Assessment & Evaluation in Higher Education, 33(5), 493-505. [23] Chen, P.-S. D., Gonyea, R., & Kuh, G. (2008). Learning at a distance. Journal of online education, 4(3). Disponível em: . Acesso em: 15 fev. 2015. [24] Willms, J.D. (2003) Student Engagement at School: a sense of belonging and participation: Results from PISA 2000. Organization for Economic Cooperation and Development.

[42] Cordeiro, A.M. Oliveira G.M. Renteria J.M. Guimarães, C.A. GERSRio.Revisão sistemática : Uma revisão narrativa. Rev Col Bras Cir. [periódico na Internet] 2007 34(6). [43] Shernoff, D. J. Csikszentmihalyi, M. Schneider, B. Shernoff, E. S. Student Engagement in High School Classrooms from the perspective of Flow Theory. School Psychology Quarterly, Vol. 18, No. 2, 2003, pp. 158-176. [44] Russell, B. & Slater G. R. L. Factors that Encourage Student Engagement: University. Journal of University Teaching & Learning Practice. Volume 8 | Issue 1. 2011.

[25] Jablon, J. R. Wilkinson, M. Using Engagement Strategies to Facilitate

[45] Zepke N. Leach L. Butler P. Student Engagement: What Is It and What Influences It?. Teaching & Learning Research Initiative. 2010.

em: . Acesso em: 15 fev. 2015.

[46] Kanthan G. D/O S. Strengthening student engagement in the classroom, 2011. National University of Singapore. Msc Science Communication.

[26] Bulger, M. E., Mayer, R. E., Almeroth, K. C., & Blau, S. D. (2008). Measuring Learner Engagement in Computer-Equipped College Classrooms. Journal of Educational Multimedia and Hypermedia, 17(2), 129-143.

[47] Jang Learning During an Uninteresting Activity. Journal of Educational Psychology .2008, Vol. 100, No. 4, 798 811. DOI: 10.1037/a0012841.

[27] Porter, S.R. (2006). Institutional Structures and Student Engagement. Research in Higher Education. 47(5), 521-558.

[48] Birch, S. H., & Ladd, G. W. (1997). The teacher child relationship and 79.

[28] Lanasa, S.M., Cabrera, A.F., & Trangsrud, H. (2009). The construct validity of student engagement: A confirmatory factor analysis approach. Research in Higher Education, 50, 315-332.

[49] Ryan, A. M. Patrick, H. The Classroom Social Environment and Changes vation and Engagement During Middle School. American Educational Research Journal Summer. 2001. Vol. 38, No. 2, pp. 437 460. Disponível em: . Acesso em: 17 fev. 2015.

[29] Laird, N. Smallwood, R. Niskode-Dossett, A.S. Garver, A.K. (2009). Effectively involving faculty in the assessment of student engagement. New Directions for Institutional Research, 141, 71-81. [30] Yen, C. Abdous, M. Study of the Predictive Relationships Between Faculty Engagement, Learner Satisfaction and Outcomes in MultipleLearning Delivery Modes. International Journal of Distance Education Technologies, 10(1), 74-87, January-March 2012. [31] Frondeville, T. Ten Steps to Better Student Engagement. Project-learning teaching strategies can also improve your everyday classroom experience. In: EDUTOPIA. 2009. [32] Cavanagh cooperative learning activities in lectures. Learning in Higher Education. 2011. Vol. 12 no. 1 23-33. DOI: 10.1177/1469787410387724. [33] Hernández, R. Increasing Student Engagement through Collaborative Learning Outside the Classroom. international conference the future of education (2012). [34] Herrmann, K. J. (2013) The impact of cooperative learning on student engagement: Results from an intervention. Active Learning in Higher Education 14(3) 175 187. DOI: 10.1177/1469787413498035. [35] Rocca, K. A. Student Participation in the College Classroom: An Extended Multidisciplinary Literature Review. Communication Education Vol. 59, No. 2, April 2010, pp. 185-213. [36] Kraft, M. A. Dougherty, S. M. The Effect of Teacher-Family Communication on Student Engagement: Evidence from a Randomized Field Experiment . Journal of Research on Educational Effectiveness. 2012. [37] Akey, T. M. School context, student attitudes and behavior, and academic achievement: An exploratory analysis. 2006. New York: MDRC. . [38] Garcia-Reid, P. Reid, R. Peterson, N. A. (2005). School engagement among Latino youth in an urban middle school context: Valuing the role of social support. Education and Urban Society, 37(3), 257 275. [39] Mo, Y. Singh, K. Chang, M. Opportunity to learn and student engagement: a HLM study on eighth grade science achievement. Educ Res Policy Prac (2013) 12:3 19. DOI 10.1007/s10671-011-9126-5.

[50] Willekens, R. Gibson, P. 2010. Hybrid courses and student engagement: opportunities and challenges for community college leaders. International Journal of Educational Leadership Preparation, 51. [51] Sagayadevan, V Jeyaraj, S. The role of emotional engagement in lecturerstudent interaction and the impact on academic outcomes of student achievement and learning. Journal of the Scholarship of Teaching and Learning, Vol. 12, No. 3, September 2012, pp. 1 30. [52] Fullarton, S. Student engagement with school : individual and school-level influences. (2002). LSAY Research Reports. Longitudinal surveys of Australian youth research report - n.27. [53] Chin, C. (2002). Student-Generated Questions: Encouraging Inquisitive Minds in Learning Science. Teaching and Learning, Vol. 23, No. 1 (June 2002) pp. 5947. [54] Prensky, M. The motivation of gameplay: The real twenty-first century learning revolution. On the Horizon, Vol. 10. (2002) Iss: 1, pp.5 11. [55] Bisson, C. & Luckner, J. (1996). Fun in Learning: The Pedagogical Role of Fun in Adventure Education. Journal of Experimental Education, Vol. 9, No. 2, 1996, pp 109-110. [56] Chatterjee, P. (2010) Entertainment, Engagement and Education in elearning: A White Paper. Head Instructional Design TATA Interactive Systems. [57] Brown, D. C. Christman, J. B. Liu, R. Reumann-Moore, R. J. Riffer, M. Links to Learning and Sustainability: Year Three Report of the Pennsylvania High School Coaching Initiative. Research for Action. Fev. 2009. [58] Seixas, L. R. A efetividade de mecânicas de gamificação sobre o engajamento de estudantes do ensino fundamental. Dissertação de Mestrado. Ciência da Computação. Universidade Federal de Pernambuco. Ago. 2014. [59] Seixas, L. R.

Gomes, A. S. Melo Filho, I. J. Rodrigues, R. L. . ia no Engajamento de Estudantes do Ensino Fundamental. In: 25º Simpósio Brasileiro de Informática na Educação (SBIE), 2014, Dourados (MS). Anais do 25º Simpósio Brasileiro de Informática na Educação (SBIE), 2014.

[40] Kuh, G. Cruce, T. Shoup, R. Kinzie, J. Gonyea, R. (2007). Unmasking the effects of student engagement on first-fear college grades and persistence. American Educational Research Association, Chicago. [41] Correia, A. M. R. Mesquita, A. Mestrados e Doutoramentos (2ª EDIÇÃO). Vida Econômica - Editorial S,A. 2014. ISBN 978-989-768-050-2.

CISTI 2015 | 75

Reuniones Efectivas: Con la Mirada en las Emociones y Conversaciones para Potenciar el Capital de las Organizaciones Effective Meetings: With a Focus on the Emotions and the Conversations to Improve the Capital in the Organizations Eduardo Olguín1, Broderick Crawford2,1,3 y Ricardo Soto2,4,5 1

2

Universidad San Sebastián, Santiago, Chile [email protected] Pontificia Universidad Católica de Valparaíso, Valparaíso, Chile [email protected], [email protected] 3 Universidad Central de Chile, Santiago, Chile 4 Universidad Autónoma de Chile, Santiago, Chile 5 Universidad Cientifica del Sur, Lima, Perú

Si las reuniones dentro de las organizaciones Resumen cumplieran cabalmente con sus propósitos serían de un alto valor estratégico, sin embargo, frecuentemente son consideradas ineficientes e ineficaces. Las organizaciones invierten tiempo y recursos en mejorar sus procesos productivos y organizacionales pero no en optimizar sus reuniones y cuando lo hacen usualmente no logran los resultados esperados. A simple vista parece un tema de fácil solución pero no lo es, ya que se conecta con la complejidad de los seres humanos. La concepción tradicional asocia una reunión a un espacio temporal o físico donde se abordan temas de una tabla o temario. Mediante la propuesta que hemos trabajado exitosamente en las organizaciones planteamos que las reuniones son ritos de redes conversacionales y procesos organizacionales, concepción que abre una amplia gama de posibilidades y oportunidades de optimización. Palabras Clave conversacionales; conversacional.

reuniones efectivas; conversaciones; redes procesos organizacionales; diseño

Abstract If the meetings within the organizations properly fulfill their purposes would be of a high strategic value. However, they are often considered as inefficient and ineffective. The organizations invest time and resources in improving their productions and organizational processes but not in optimizing their meetings. When they do so, usually they do not get the results expected. At first glance, it seems an issue of an easy solution but it is not, because it is connected to the complexity of human beings. The traditional conception associates a meeting with a time or physical space where issues that are in a list of topics are addressed. Through the proposal that we have successfully

worked in the organizations we outline that the meetings are rites of conversational networks and organizational processes. This understanding opens a wide range of possibilities and opportunities of optimization. Keywords efective meetings; conversations; conversational networks; organizational processes; conversational design.

I.

INTRODUCCIÓN

En más de 20 años de consultoría en procesos de cambio organizacional constatamos que para los ejecutivos de empresas y organizaciones el quehacer más importante es dirigir o asistir a reuniones, dedicando gran parte de su tiempo a ellas. Sin embargo, evalúan que la mayor parte de esas horas son ineficientes e ineficaces, e incluso muchas veces las consideran tiempo y recursos en mejorar sus procesos productivos y organizacionales pero no en optimizar sus reuniones y cuando lo hacen usualmente no logran los resultados esperados. A simple vista parece un tema de fácil solución pero no lo es ya que muchas veces los cambios más obvios no sirven o no se logran instalar. Estas dificultades se conectan con la complejidad de los seres humanos y de su operar en equipos. Las reuniones dentro de una organización son utilizadas como una herramienta y metodología para generar coordinación, tomar decisiones, resolver problemas, alcanzar acuerdos, diseñar nuevos productos, planificar la producción, establecer metas, evaluar resultados, etc. Si éstas cumplieran cabalmente con sus propósitos serían de un alto valor estratégico, sin embargo, no es lo usual. Reuniones mal diseñadas, mal conducidas, sin foco o sin un estado de ánimo

CISTI 2015 | 76

apropiado pueden causar más costos que beneficios y convertirse en una fuente de descontento, desmotivación, mal uso de los recursos, pérdidas económicas e incluso daño organizacional. La concepción tradicional asocia una reunión a un espacio temporal o físico donde se abordan temas de una tabla. Y en otros casos se asocia a un listado de temas a abordar [1]. Y las estrategias de mejora apuntan a reducir las reuniones o su duración [2] o si el conductor es maestro o sirviente [3] entre otras. Desde nuestra mirada esta concepción de reunión no permite lograr soluciones sustentables. La propuesta que se ha trabajado exitosamente en organizaciones propone que las reuniones son ritos de redes conversacionales y que son procesos organizacionales. Esto permite que se consideren otros dominios de diseño, se abran otros espacios de posibles mejoras y optimización y además se adecuen dependiendo del tipo de conversación que involucran. En este artículo se proporcionan elementos orientados a aumentar la eficiencia y eficacia de las reuniones para potenciar el capital de las organizaciones. Para ello, primero se hará referencia a la interpretación y diseño conversacional para posteriormente caracterizar las reuniones y proporcionar prácticas útiles mediante el análisis del proceso a través de sus etapas. II.

INTERPRETACIÓN Y DISEÑO CONVERSACIONAL

La forma de llegar, el lugar donde se toma asiento, lo que se dice y no se dice, y la manera de abordar los temas son actos relevantes en una reunión ya que los participantes interpretan todo lo que se dice o hace. Surgen muchas conversaciones internas y emociones que no se manifiestan explícitamente pero que influyen y le dan complejidad a las reuniones.

Nuestra experiencia nos muestra que ver la reunión como un proceso expande los límites ampliando considerablemente las posibilidades de mejorar, y para esto se requiere ir generando diversos espacios emocionales de forma tal que las personas fluyan en la conversación. En particular, se pueden elaborar diseños más robustos y eficaces. El entrelazamiento cotidiano entre razón y emoción constituye el vivir humano y todo sistema racional tiene un fundamento emocional. Desde una mirada biológica, las emociones son disposiciones corporales dinámicas que definen los dominios de acción en que se mueven los seres humanos. Si se cambia de emoción se cambia de dominio de acción. Cuando se está en una cierta emoción hay cosas que se pueden hacer y otras que no y se aceptan argumentos que no se aceptarían bajo otra emoción. La emoción es central y funda la acción [5]. En este contexto, es fundamental considerar las emociones y los estados de ánimo en el diseño y la realización de reuniones y la experiencia muestra que si se hace se obtienen mejores resultados. La reunión gestiona y moviliza estados de ánimo y emociones. La comprensión de acción y lenguaje está influenciada acerca de cómo las personas se coordinan para realizar las cosas. La acción consiste en aquellos movimientos necesarios para satisfacer deseos o vencer preocupaciones [6]. Lo que hablamos, lo que decimos es acción. Las reuniones son espacios de acción pero muchas veces no se tiene conciencia de ello y se consideran espacios de entrega de información. Lo que es una interpretación que limita sus potencial.

Nuestra interpretación integra la observación, el diseño y la intervención en las conversaciones y en el mundo emocional, y plantea operar con las reuniones como procesos.

Profundizando es posible distinguir una estructura conversacional la conversación para la acción en la que las personas coordinan sus acciones. Esta estructura consiste en variaciones de algunos movimientos básicos del lenguaje, lo que se refiere a actos del habla. Al hacer un acto del habla no sólo se está transmitiendo información, se está adquiriendo un compromiso acerca de cómo se van a coordinar las acciones en el futuro [7]. Cuando un gerente pide que se realice algo está llevando a cabo una acción y esa acción hará que algo ocurra cuando una persona en la reunión se comprometa a hacerlo.

A. Las Reuniones como Redes Conversacionales Lo que nos ocurre o hacemos está definido como una acción por una emoción que la hace posible. El vivir humano se da en un continuo entrelazamiento de emociones y lenguaje: la conversación [4].

El lenguaje no es conversar acerca de la acción, es la acción, es cómo se crea un futuro compartido. Las personas no tienen conversaciones para la acción para especificar algún objeto que debe ser producido o un procedimiento a seguir, sino que las tienen para mantenerse orientadas hacia un futuro común con el que están comprometidos [8].

Las redes conversacionales son los distintos tipos de conversaciones que constituyen las organizaciones. En este contexto, las reuniones permiten procesos de cambio y transformación, y son generadoras y movilizadoras de las emociones y los estados de ánimo en las organizaciones. Distintos tipos de conversaciones implican distintos tipos de reuniones. B. Procesos Conversacionales Las reuniones son instancias de encuentro y conversación de los equipos, y contemplan una serie de actividades, prácticas, dinámicas y técnicas que se articulan como un proceso susceptible de ser analizado, rediseñado y optimizado.

La comunicación es la modelación mutua de un mundo común a través de una acción conjunta: el acto social del lenguaje que da existencia a nuestro mundo [9]. Las reuniones son esencialmente espacios de conversación que crean el presente y futuro de las organizaciones. El qué y cómo se conversa y la calidad de esas conversaciones tienen relevancia estratégica para las organizaciones. Aumentar la eficiencia, eficacia y bienestar al realizar reuniones requiere desarrollar competencias conversacionales y de diseño. Distintas conversaciones requieren distintas competencias y distintos diseños.

CISTI 2015 | 77

III.

CARACTERIZACIÓN DE LAS REUNIONES

La tradición clasifica las reuniones según los temas a abordar, los participantes o si son formales o informales [10]. Se propone que las reuniones se pueden clasificar según el tipo de conversación y el propósito de ellas. Esto implicará un proceso conversacional distinto, estados de ánimos distintos y formas de conducirlas distintas. Por ejemplo, se puede realizar una reunión para evaluar una inversión en tecnología (reunión de evaluación), para acelerar el avance de un proyecto (reunión de coordinación) o para preparar la celebración de fin de año (reunión de diseño). En cada una se manifestarán distintas formas de interactuar y distintas dinámicas conversacionales y emocionales. A continuación se señalan los tipos de reuniones más comunes en las organizaciones, sus objetivos, y los estados de ánimo que idealmente deberían primar. 1) Reunión de Coordinación: Provocar acción futura y para ello se requiere revisar y establecer compromisos, sintonizar al equipo en relación a las acciones que se están llevando o se llevarán a cabo, y proporcionar claridad sobre lo que cada persona realizará en el futuro. Estados de ánimo: Apropiación, compromiso y asertividad. 2) Reunión de Especulación: Generar ideas o nuevas posibilidades para enfrentar un tema organizacional específico; se abre la mente a innovaciones, a formas creativas de resolver los problemas. Estados de ánimo: entusiasmo, apertura, aceptación, confianza. 3) Reunión de Diseño: Originar acciones y contextos necesarios para provocar algo en particular. Estados de ánimo: apropiación, apertura, interés e integración. 4) Reunión de Evaluación: Develar, identificar y compartir los juicios y estándares sobre un tema específico. Son centrales para generar una interpretación sobre el pasado y presente que permita diseñar hacia el futuro. Estados de ánimo: apertura en el escuchar, disposición para fundamentar y aceptar juicios, asertividad, empatía y confianza en el equipo. 5) Reunión de Construcción y Fortalecimiento de las Relaciones del Equipo: Abrir espacios para reforzar las relaciones de quienes conforman los equipos. Estados de ánimo: deseo de compartir y disfrutar. 6) Reunión Estratégica: Diseñar y planear estratégicamente hacia el futuro. Estados de ánimo: Sentido de pertenencia a la organización y al equipo, apertura, intuición anticipativa, sensibilidad política y compromiso con construir un futuro compartido. Cada tipo de reunión es particular según su propósito, proceso emocional y conversacional y en la forma en que debe ser conducida. Para aumentar eficacia no se deben mezclar distintas preocupaciones o tipos de conversación. Si se mezclan focos se puede desvirtuar la reunión e instalar la percepción de que no se avanza o no se logran acuerdos. Por ejemplo, en una reunión de evaluación de año comenzar a diseñar un nuevo servicio es contraproducente y no genera buenos resultados; o pedir compromisos en medio de una reunión de especulación

disipará la creatividad. Si es posible realizar dos reuniones seguidas de distinto tipo, declarando el cambio de propósito. Por ejemplo, luego de una reunión de especulación se puede realizar una de coordinación para plasmar las nuevas ideas en acciones posibles. Son dos conversaciones muy distintas y el éxito dependerá de un fino diseño conversacional. IV.

PRÁCTICAS PARA REUNIONES MÁS EFECTIVAS

Para realizar reuniones más efectivas es importante observar las prácticas en las tres fases del proceso: el diseño, la realización y el seguimiento. A. Diseño de la reunión Generar el entorno (espacio físico), el contexto (espacio interpretativo) y los compromisos necesarios para lograr que la reunión tenga el resultado esperado. Para tener claro el tipo de reunión que se llevará a cabo es necesario definir el propósito, los objetivos, elaborar una tabla, y determinar los participantes y sus roles. Luego, se hace la convocatoria, la que incluye al menos: Comunicar el propósito, los objetivos y la tabla de la reunión para preparar a los asistentes y generar el contexto adecuado. Proporcionar la información básica (lugar, fecha, hora, grado de formalidad, etc.). Solicitar aportes a la conversación a nivel general y acciones específicas. Informar sobre los roles. Además de comunicar el propósito, es posible iniciar una conversación de preparación que vaya generando el contexto interpretativo y emocional de la reunión. Es fundamental confirmar con anticipación la asistencia de los participantes. Para cuidar el tiempo, debe existir la posibilidad de suspender una reunión si la situación lo amerita. También se requiere preparar el espacio físico y la tecnología a utilizar. B. Realización de la Reunión Contexto inicial: Establecer hora de inicio y término de la reunión permitiendo que se disculpen quienes se tienen que retirar antes o ajustar el horario si es necesario. Reiterar el propósito, el objetivo y la tabla de las conversaciones con sus tiempos. Declarar roles e indicar qué es lo que se espera de los asistentes. Es importante definir quién conducirá la reunión. Chequear, al inicio, el estado de ánimo y las preocupaciones de los asistentes. Continuidad: Si hubiera una continuidad de una reunión es conveniente recuperarla para alinearse históricamente y aprovechar los

CISTI 2015 | 78

avances anteriores, por ejemplo, es posible realizar al inicio una síntesis de la reunión anterior o una revisión de acuerdos previos. Desarrollo de la Reunión: Según la tabla y bajo la conducción del moderador se desarrollarán los distintos temas. Las conversaciones deben estar sintonizadas con el propósito y si surgen otros temas interesantes se pueden agregar a la tabla o agendar para una nueva reunión. de lineamientos no entrar en el detalle ya que se puede perder el hilo de la conversación y no cumplir con el propósito. Cierre de la Reunión: Al finalizar la reunión es necesario dejar un tiempo apropiado para hacer un buen cierre para aumentar la eficiencia considerar una síntesis, una revisión de los acuerdos y de los compromisos contraídos, una evaluación del cumplimiento de los objetivos, nominar a un responsable para generar el acta que se hará llegar posteriormente a todos los participantes, proponer una fecha y una tabla de una próxima reunión. Evaluar la reunión al cierre permitirá conocer las apreciaciones de los participantes y tomar, en caso de que se requiera, medidas de optimización. C. Seguimiento de la Reunión Considera todas las acciones posteriores que permiten cerrar el proceso y darle cumplimento al propósito de la reunión. Contempla la evaluación del proceso de la reunión con respecto, por ejemplo, al diseño, a la convocatoria, a la realización, al cumplimiento del propósito y de los tiempos, a la conducción del moderador, y a mejoras posibles. A partir de la realización de la reunión es posible sacar experiencias de aprendizaje e identificar buenas prácticas, que pueden ser compartidas con el resto de la organización. V.

EXPERIENCIAS DE APLICACIÓN

Esta propuesta de concepción y realización de reuniones se ha probado con éxito desde el año 2009 a la fecha en la Facultad de Ingeniería y Tecnología de la Universidad San Sebastián. Los miembros del equipo manifiestan que las reuniones son efectivas, provechosas, útiles y que son un aporte al trabajo. También ha sido usada en diversos proyectos con empresas entre los que se destacan con Minera Gabriela Mistral y Minera División Ministro Hales de Codelco. En ambas las reuniones han permitido el mejoramiento del trabajo de los equipos de la Gerencia de Recursos Mineros y Desarrollo. La observación principal en ambos casos es la evaluación de que las reuniones son útiles para su trabajo y no son una pérdida de tiempo que los distrae de su trabajo, como son percibidas usualmente. VI.

CONCLUSIONES

La experiencia ha demostrado que el aumento de efectividad y eficacia en las reuniones beneficia a los equipos y

su trabajo. Esta mayor productividad se relaciona con entender las reuniones no sólo como una actividad a la que se asiste o un listado de temas que son parte de una agenda, sino como un proceso conversacional de creación y transformación de la organización que produce un beneficio económico y a la vez un mejoramiento del clima laboral. No se trata de seleccionar un buen listado de temas sino distinguir el tipo de conversaciones y cómo se conducen estas conversaciones incluyendo los estados de ánimo apropiados. Reuniones bien diseñadas, con claridad respecto de los temas a abordar y del espacio emocional requerido, en un entorno apropiado, con un contexto favorable y con una conducción eficiente pueden ser muy apreciadas por los asistentes. Buenas reuniones generan buenos equipos de trabajo. Si en una organización o un equipo se desea aprender a realizar reuniones más eficientes, eficaces y con mayor bienestar se recomienda establecer un período de uno o dos meses para dedicar una especial preocupación a mejorar las reuniones. Posteriormente, asignar un período de seguimiento de tres meses. Este proceso para generar mayor capacidad de instalar buenas prácticas puede ser de gran beneficio para el equipo y su desempeño. La interpretación tradicional de las reuniones tiene un espacio muy acotado de innovaciones. Sin embargo, la interpretación conversacional y de proceso de las reuniones amplia el espacio de posibilidades de optimización y permite a los equipos realizar innovaciones que se hagan cargo de su propia identidad y requerimientos. Un diseño sutil que incluya los espacios emocionales produce mejoras y nuevas prácticas. AGRADECIMIENTOS El autor Broderick Crawford es apoyado por CONICYT/ FONDECYT/REGULAR/1140897 y Ricardo Soto es apoyado por CONICYT/FONDECYT/INICIACION/11130459. REFERENCIAS BIBLIOGRÁFICAS [1]

R. Schwartz, How to Design an Agenda for an Effective Meeting. Harvard Business Review, March 19, 2015. [2] D. Rousmaniere, What Everyone Needs to Know About Running Productive Meetings. Harvard Business Review, March 13, 2015. [3] A. Jay, How to Run a Meeting. Harvard Business Review, March April 1976. [4] H. Maturana, Emociones y lenguaje en educación y política. Editorial Dolmen Ensayo, 2001. [5] H. Maturana, Emociones y lenguaje en educación y política. Editorial Dolmen Ensayo, 2001. [6] F. Flores, Conversations For Action and Collected Essays, Create Space Independent Publishing Platform, North Charleston, Carolina del Sur, 2012. [7] F. Flores, Conversations For Action and Collected Essays, Create Space Independent Publishing Platform, North Charleston, Carolina del Sur, 2012. [8] F. Flores, Conversations For Action and Collected Essays, Create Space Independent Publishing Platform, North Charleston, Carolina del Sur, 2012. [9] F. Varela, Conocer las ciencias cognitivas: tendencias y perspectivas, Cartografía de las ideas actuales, Gedisa, 1990. [10] P. Challinor, Meetings: The Challenge. Nursing Standard. 13, 50, 40-45. 1999.

CISTI 2015 | 79

Optimización por Colonia de Gatos del Problema de Cobertura de Conjuntos Binary Cat Swarm Optimization for the Set Covering Problem Broderick Crawford1,2,3, Ricardo Soto1,4,5, Natalia Berríos1, Franklin Johnson1,6 y Fernando Paredes7 1

Pontificia Universidad Católica de Valparaíso, Valparaíso, Chile [email protected], [email protected] [email protected] 2 Universidad San Sebastián, Santiago, Chile 3 Universidad Central de Chile, Santiago, Chile 4 Universidad Autónoma de Chile, Santiago, Chile 5 Universidad Cientifica del Sur, Lima, Perú 6 Universidad de Playa Ancha, Valparaíso, Chile [email protected] 7 Escuela de Ingeniería Industrial, Universidad Diego Portales, Santiago, Chile [email protected] El problema de cobertura de conjuntos pertenece a la Resumo rama de los problemas de combinatoria de optimización, cuya complejidad exponencial se ha establecido teóricamente como problemas NP-complejos. Consiste en la búsqueda de un subconjunto de columnas en una matriz de ceros y unos de tal manera que cubran todas las filas de la matriz a un costo mínimo. Se presenta la solución a este problema utilizando, por primera vez, el algoritmo de optimización por colonia de gatos binaria. Esta metaheurística se basa en el comportamiento de los gatos, donde estos sienten curiosidad por los objetos en movimiento y tienen una gran habilidad para cazar. Esto se traduce en dos comportamiento: modo de búsqueda y modo de rastreo. El algoritmo es probado en 65 instancias, las cuales son comparadas en una tabla de resultados incluyendo una columna con la desviación de porcentaje relativa. Palabras Clave - optimización por colonia de gatos binaria; problema de cobertura de conjuntos; metaheurística. Abstract The set covering problem belongs to the combinatorial optimization problems, whose complexity is exponential theoretically established as NP-complex problems. Consists in finding a subset of columns in a matrix of zeros and ones such that cover all rows of the matrix at minimal cost. The solution to this problem is presented using, for first time, the binary cat swarm optimization algorithm. This metaheuristic is objects based on the in motion and have a great hunting ability. Cats have two modes of behavior: seeking mode and tracing mode. The algorithm is tested on 65 instances, which are compared in a result table including a column with the relative percentage deviation. Keywords binary cat swarm optimization; set covering problem; metaheuristic.

I.

INTRODUCCIÓN

El Problema de Cobertura de Conjuntos, en inglés Set Covering Problem (SCP) [1] [2], es un problema clásico que consiste en encontrar un conjunto de soluciones que permiten cubrir una serie de necesidades con el menor costo posible. Existen muchas aplicaciones, incluidas las destinadas a rutas, horarios, la redistribución de distritos electorales y otras situaciones importantes de la vida real. Se han propuesto diferentes métodos para solucionar el SCP. En el campo de la optimización, muchas metaheurísticas se han desarrollado para resolver el SCP. Ejemplos de estos incluyen: algoritmos genéticos [3], colonia artificial de abejas [4], optimización basada en colonia de hormigas [5] [6], optimización por enjambre de partículas [7] [8] y algoritmo luciérnaga [9]. Nuestro algoritmo propuesto utiliza el comportamiento del gato para resolver problemas de optimización; es llamado Optimización por Colonia de Gatos Binaria, BCSO por sus siglas en inglés [10]. Los gatos se comportan de dos maneras: el modo de búsqueda y el modo de rastreo. BCSO se basa en la Optimización por Colonia de Gatos (CSO) [11], propuesta por Chu y Tsai (2006) [12]. La diferencia es que en BCSO el vector posición se compone de unos y ceros. II.

PROBLEMA DE COBERTURA DE CONJUNTOS

El problema de cobertura de conjuntos [13] [14] se puede formular de la siguiente manera. Digamos que sea una matriz de ceros y unos de m-filas y n-columnas. Se dice que una columna puede cubrir una fila si . Donde es un valor no negativo que representa el costo de la columna seleccionada y es una variable de decisión que puede ser uno

CISTI 2015 | 80

si la columna es seleccionada o cero si no lo es. Digamos que y son el conjunto de filas y el conjunto de columnas respectivamente. El SCP requiere un subconjunto de costo mínimo , de tal manera que cada fila está cubierta por al menos una columna . El modelo matemático del SCP es

sujeto a:

III.

OPTIMIZACIÓN POR COLONIA DE GATOS BINARIA

Dentro de los felinos conocidos, existen alrededor de treinta especies diferentes, por ejemplo, león, tigre, leopardo, gato, entre otros [15]. Aunque muchos tienen diferentes ambientes de vida, los felinos comparten patrones de comportamiento similares. Para los felinos salvajes la habilidad de caza asegura su suministro de alimentos y la supervivencia de su especie [16]. Los felinos salvajes forman grupos con la misión de ir a cazar su alimento, forman colonias felinas muy salvajes, que van desde 2 hasta 15 individuos [17] Los gatos domésticos también muestran la misma habilidad de caza, y sienten curiosidad por los objetos en movimiento [18]. Al observar a los gatos, se podría pensar que la mayor parte del tiempo la pasan descansando, incluso estando despiertos [19]. Pero el estado de alerta no lo abandonan nunca, pueden estar escuchando o con los ojos muy abiertos para observar a su alrededor [18]. En base a estos comportamientos se llegó a lo que conocemos como BCSO. BCSO es un algoritmo de optimización que imita el comportamiento natural de los gatos [20]. Los gatos sienten curiosidad por los objetos en movimiento y tienen una gran habilidad para cazar [21] [22]. En BCSO existen dos comportamientos que son modelados matemáticamente para resolver problemas complejos de optimización: el modo de búsqueda y el modo de rastreo. En la Figura 1 describimos el diagrama general de BCSO, donde MR es el porcentaje que determina el número de gatos que realizarán el modo de búsqueda [22]. En BCSO [10], la primera decisión es el número de gatos necesarios C para cada iteración. Cada gato será representado por , donde k podrá tomar valores entre 1 y C. Cada gato tendrá su propia posición que consiste en M dimensiones, la que estará compuesta por unos y ceros. Además, tendrá dos está en modo de búsqueda o en modo de rastreo (MR). Finalmente tendrá el valor de la función fitness el cual se calculará en base al SCP (1). El BCSO mantendrá la mejor solución hasta el final de las iteraciones.

Figure 1. Optimización por Colonia de Gatos Binaria

a. Modo de búsqueda En este modo se modela al gato durante su período de reposo pero estando alerta, donde el gato mira a su alrededor para dar su próximo movimiento. Modo de búsqueda tiene tres factores esenciales: PMO, probabilidad de mutación; CDC, cantidad de dimensiones a cambiar; y SMP, memoria de búsqueda. El siguiente pseudocódigo describe el modo de búsqueda: Paso1: Crear SMP copias de Paso2: Basado en CDC actualizar aleatoriamente la posición de cada copia de acuerdo a PMO Paso3: Evaluar la función fitness de todas las copias (1) Paso4: Calcular la probabilidad de selección de cada copia de acuerdo a la siguiente ecuación, donde para encontrar la solución mínima y para encontrar la solución máxima [10].

Paso5: puntos candidatos y seleccionar uno Paso6: Reemplazar la posición actual con el candidato seleccionado

CISTI 2015 | 81

A. Modo de rastreo En el modo de rastreo el gato intenta trazar metas, aquí se modela el caso donde el gato se dedica a localizar los objetos en movimiento. En este modo cada gato tiene dos vectores velocidad que están definidas como y . es la probabilidad de que es la el bit del gato cambie a cero, mientras que probabilidad que el bit del gato cambie a uno. El vector velocidad cambia de acuerdo a la probabilidad de mutación en cada dimensión del gato. El modo de rastreo puede describirse de acuerdo a Paso1: Calcular , y donde es la dimensión del mejor gato, es un valor aleatorio entre el intervalo [0,1] y es una constante definida por el usuario.

SMP = 20 y PMO = 1. Los parámetros w y en 1.

se inicializaron

La Tabla 1 muestra el resultado de las 65 instancias. La columna corresponde al óptimo o la mejor solución conocida para cada instancia. La columna corresponde al costo más bajo encontrado; corresponde al costo más alto encontrado; y corresponden al promedio de las soluciones obtenidas durante las 30 ejecuciones de cada instancia. Finalmente la calidad de una solución se evalúa en términos de la desviación porcentual relativa (RPD). RPD (Ecuación 10) corresponde a la desviación del valor mínimo del mejor valor objetivo [6].

 Paso2: Actualizar masa de inercia

y

como sigue, donde w es la

d Paso3: Calcular la velocidad de

,

, de acuerdo a

Paso4: Calcular la probabilidad de mutación de cada dimensión, esta está definida por el parámetro , toma valores entre el intervalo [0,1]

Paso5: Basado en el nuevo valor cada dimensión de gato es actualizado como sigue

IV.

, el

EXPERIMIENTOS Y RESULTADOS

El desempeño fue evaluado experimentalmente usando BCSO [10] con 65 instancias de prueba del SCP del ORLibrary de Beasley [23]. El algoritmo de optimización fue codificado en Java en NetBeans IDE 7.1 y ejecutado en un computador con 2.53 GHz Intel Core i3 M380 CPU y 3.0 GB de RAM sobre Windows 7. En todos los experimentos el BCSO fue ejecutado con 500 iteraciones, una población de 50 gatos y ejecutado 30 veces cada instancia. Estos valores fueron determinados por la rápida convergencia de acercarse el óptimo local al óptimo global. Los parámetros seleccionados de BCSO fueron CDC = 0.001,

CISTI 2015 | 82

TABLE I. Ins. 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 6.1 6.2 6.3 6.4 6.5 A.1 A.2 A.3 A.4 A.5 B.1 B.2 B.3 B.4 B.5 C.1 C.2 C.3 C.4 C.5 D.1 D.2 D.3 D.4 D.5 NRE.1 NRE.2 NRE.3 NRE.4 NRE.5 NRF.1 NRF.2 NRF.3 NRF.4 NRF.5 NRG.1 NRG.2

429 512 516 494 512 560 430 492 641 514 253 302 226 242 211 213 293 288 279 265 138 146 145 131 161 253 252 232 234 236 69 76 80 79 72 227 219 243 219 215 60 66 72 62 61 29 30 27 28 28 14 15 14 14 13 176 154

459 570 590 547 545 637 462 546 711 537 279 339 247 251 230 232 332 320 295 285 151 152 160 138 169 286 274 257 248 243 79 86 85 89 73 242 240 277 246 243 65 70 79 64 65 29 34 31 32 30 17 18 17 17 15 190 165

RESULTADOS 485 599 614 585 558 655 469 571 741 556 283 340 252 254 231 244 343 331 299 288 166 160 166 143 176 287 280 264 252 244 79 90 87 89 74 243 244 279 250 247 66 71 81 67 66 30 35 32 33 31 18 19 18 18 16 194 167

479,6 594,2 606,8 578,3 554.2 649,9 467,4 566,9 725.0 552,1 281,6 339,9 250,5 253,2 230,4 242,7 338,0 329,9 298,6 286,9 159,9 157,4 164,3 141,7 172,8 286,9 276,3 263,1 250,8 243,8 79 88,3 85,2 89 73,1 242,2 240,6 278 248 244,3 65,7 70,1 80,8 66,6 65,6 29,9 34,2 31,5 32,9 30,3 17,1 18,2 17,2 17,1 15,9 192,7 166

RPD 7,0 11,3 14,3 10,7 6,4 13,8 7,4 11,0 10,9 4,5 10,3 12,3 9,3 3,7 9,0 8,9 13,3 11,1 5,7 7,5 9,4 4,1 10,3 5,3 5,0 13,0 8,7 10,8 6,0 3,0 14,5 13,2 6,3 12,7 1,4 6,6 9,6 14,0 12,3 13,0 8,3 6,1 9,7 3,2 6,6 0,0 13,3 14,8 14,3 7,1 21,4 20,0 21,4 21,4 15,4 8,0 7,1

Ins. NRG.3 NRG.4 NRG.5 NRH.1 NRH.2 NRH.3 NRH.4 NRH.5

155 168 168 63 63 59 58 55

V.

187 179 181 70 67 68 66 61

191 185 186 74 67 74 68 66

187,7 183,2 184,3 71,2 67 69,6 66,6 61,5

[4]

RPD 20,6 6,5 7,7 11,1 6,3 15,3 13,8 10,9

[5] [6]

CONCLUSIONES

En esta investigación usamos la versión binaria de optimización por colonia de gatos (BCSO) [10] para resolver el problema de cobertura de conjuntos (SCP) [1] [2]. En los problemas de optimización binaria, el vector posición toma valores cero y uno. Esto provoca cambios significativos en BCSO con respecto a CSO, por ejemplo, en BCSO, el modo de búsqueda, el cambio en la posición del gato se lleva a cabo mediante la introducción de la operación de mutación. La interpretación del vector velocidad en el modo de rastreo también cambia con la probabilidad de cambio de cada dimensión d de las posiciones de los gatos. El BCSO propuesto fue implementado y usado en 65 instancias de prueba del SCP del OR-Library de Beasley [23]. Como se puede observar a partir de los resultados obtenidos, colonia de gatos funciona bien en la mayoría de las instancias. Nuestra propuesta demostró ser robusta, se usaron los mismos parámetros para cada instancia. Por último, hemos obtenido resultados cercanos al óptimo, con un bajo costo computacional. Nuestra propuesta puede alcanzar muy buenas soluciones (óptimos locales o valores óptimos conocidos) en pocas iteraciones, desde la iteración 150 a la 500 ya se observaban buenos resultados. En otros trabajos recientes, valores cercanos de RPD se obtuvieron en miles de iteraciones [6]. Por lo tanto, en este trabajo hemos demostrado que BCSO es una alternativa válida para resolver eficientemente el SCP. AGRADECIMIENTOS El autor Broderick Crawford es apoyado por CONICYT/ FONDECYT/REGULAR/1140897, Ricardo Soto es apoyado por CONICYT/FONDECYT/INICIACION/11130459 y Fernando Paredes es apoyado por CONICYT/FONDECYT/ REGULAR/ 1130455. REFERENCIAS B IBLIOGRÁFICAS [1] [2]

[3]

[7]

[8] [9]

[10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21]

B. Crawford, R. Soto, and E. Monfroy. covering problem," in ICSI (2), vol 7929, pp. 27-34, 2013. Optimization Method to Solve the Weighted Set Covering Problem," in communications in Computer and Information Science, vol. 434, pp. 493-497, 2014. J. Beasley and P. Chu. A Genetic Algorithm for the Set Covering Problem. European Journal of Operational Research, vol 94(2), pp. 392404, 1996.

B. Crawford, R. Soto, R. Cuesta, and F. Paredes. Application of the Artificial Bee Colony Algorithm for Solving the Set Covering Problem. The Scientific World Journal, vol. 2014 (2014), Article ID 189164, 8 pages, 2014. F. Amini and P. Ghaderi, "Hybridization of harmony search and ant colony optimization for optimal locating of structural dampers," Appl. Soft Comput., pp. 2272-2280, 2013. Z. Ren, Z. Feng, L. Ke, and Z. Zhang, "New ideas for applying ant colony optimization to the set covering problem," Computers & Industrial Engineering, pp. 774-784, 2010. B. Crawford, R. Soto, E. Monfroy, W. Palma, C. Castro, and F. Paredes, "Parameter tuning of a choice-a function based hyperheuristic using particle swarm optimization," Expert Systems with Applications, pp. 1690-1695, 2013. Y. Shi and R. Eberhart, "Empirical study of particle swarm optimization," Proc. of the Congress on Evolutionary Computation, pp. 1945-1950, 1999. B. Crawford, R. Soto, M. Olivares-Suárez, and F. Paredes. A binary firefly algorithm for the set covering problem. In proceedings of 3rd Computer Science On-line Conference 2014 (CSOC), Modern Trends and Techniques in Computer Science, pp. 65-73, AISC 285, Springer, 2014. Discrete binary cat Y. Sharafi, M swarm optimization algorithm," Computer, Control and Communication, pp. 1-6, 2013. G. Pa ir system identification using cat swarm optimization," Expert Systems with Applications, pp. 1267112683. Cat swarm optimization," Proceedings of the 9th Pacific Rim International Conference on Artificial Intelligence, pp. 854-858, 2006. A. Capra Algorithms for the set covering problem," Annals of Operations Research, 2000. L. Lessing, I. Dumitrescu, and T. St A comparison between aco algorithms for the set covering problem," pp. 1-12, 2004. Complete Textbook of Veterinary Nursing Oxford, UK: Butterworth-Heinemann, 2006. J. Dards, Advisory Bureau, 15(3). FeralCats.org.uk, 1976. A. Yamane, T. Doi and Y. Ono, Mating Success of Male Feral Cat (Felis catus) Journal of Ethology, 14(1), pp. 35-44, 1996. S. Crowell-Davis, Cat behaviour: social organization, communication In: Rochlitz I, ed. The welfare of cats. Dordrecht, The Netherlands: Springer, pp. 1-22, 2005. H. Adler, "Some Factors Of Observation Learning In Cats," Journal of Genetic Psychology, vol. 86, 159-77, 1995. B. Santosa, M.K. Ningrum, Cat Swarm Optimization for Clustering, 2009 International Conference of Soft Computing and Pattern Recognition, (2009). P. Tsai, J. Pan, S. Chen and B.

Applications, vol. 39, no. 7, pp. 6309-6319, 2012. Computational intelligence based on the behavior of cats," International Journal of Innovative Computing, Information and Control, pp. 163-173, 2007. [23] A lagrangian heuristic for set covering problems," Naval Research Logistics, vol. 37, pp. 151-164, 1990. [22]

CISTI 2015 | 83

Problema de Cobertura de Conjunto Resuelto por el Nuevo Algoritmo Luciérnaga Binario Set Covering Problem solved by new Binary Firefly Algorithm Broderick Crawford1,2,3, Ricardo Soto,1,4,5, Marco Riquelme-Leiva1, Cristian Peña1, Claudio Torres-Rojas1, Franklin Johnson1,6 y Fernando Paredes7 1

Pontificia Universidad Católica de Valparaíso, Valparaíso, Chile 2 Universidad Finis Terrae, Santiago, Chile 3 Universidad San Sebastián, Santiago, Chile 4 Universidad Autónoma de Chile, Santiago, Chile 5 Universidad Central de Chile, Santiago, Chile 6 Universidad de Playa Ancha, Valparaíso, Chile 7 Universidad Diego Portales, Santiago, Chile

En este trabajo, proponemos utilizar el Algoritmo Resumen Binario Luciérnaga Modificado para resolver las distintas instancias que componen el Problema de Cobertura de Conjunto o Set Covering Problem (SCP) en inglés. El SCP, es considerado un problema clásico de optimización combinatorial, perteneciente a la clase NP-hard [8] y puede ser aplicado en muchos campos del mundo real. En este trabajo consideramos aplicar el Algoritmo Binario Luciérnaga Modificado apoyado en ocho Funciones de Transferencia y cinco Métodos de Discretización que nos permiten expresar la solución del problema en el dominio binario. Los diferentes resultados expuestos en este trabajo, demuestran que nuestro Algoritmo es una buena alternativa a un bajo costo para resolver el SCP. Keywords: Problema de Cobertura de Conjuntos; Algoritmo Binario Luciérnaga Modificado; NP-hard; Funciones de Transferencia; Métodos de Discretización. Abstract In this paper, we propose a Modified Binary Firefly Algorithm to solve different instances of the Set Covering Problem (SCP). The Set Covering Problem is considered a classic combinatorial optimization problem, belonging to the class NPhard problem [8] and have many practical applications. In this paper we consider applying Modified Binary Firefly Algorithm supported in eight Transfer Functions and five Discretization Methods that allow us to express the solution of the problem in the binary domain. The different results presented in this paper show that our algorithm is a good alternative at a low cost to solve the SCP.

I.

INTRODUCTION

El Set Covering Problem, en inglés o Problema de Cobertura de Conjunto, es considerado un problema clásico de optimización combinatorial [5-6]. Pertenece a la clase NPcompleto y puede ser aplicado en muchos campos del mundo real, con muchas aplicaciones prácticas como la distribución de tripulación en aerolíneas [15-10], localización de instalaciones de emergencia [11], análisis lógico de datos numéricos [4], la producción de acero [12], rutas para vehículos [7] y la asignación de los buques [16]. El Set Covering Problem (SCP) es definido formalmente de la siguiente forma. Digamos que A (aij ) sea una matriz de ceros y unos de m-filas y n-columnas. Decimos que una columna j cubre una fila i sí ij . Cada columna j está asociada con un costo real no negativo . Digamos que y como el conjunto de filas y el conjunto de columnas respectivamente. El SCP requiere un subconjunto de mínimo costo , de tal manera que cada fila está cubierta por al menos una columna . El modelo matemático del SCP pude ser definido de la siguiente forma.

Minimizar f (x)

n j 1

cjxj .

(1)

Sujeto a:

Keywords - Set Covering Problem, Modified Binary Firefly Algorithm, NP-hard, Transfer Functions, Discretization Methods.

n j 1

xj

CISTI 2015 | 84

ij

j

{0,1}, j

.

(2)

J.

(3)

El objetivo es reducir al mínimo la suma de los costos de las columnas seleccionadas, donde si la columna j está en la solución, 0 en caso contrario. Las restricciones aseguran que cada fila i está cubierta por al menos una columna. II.

EL ALGORITMO B INARIO LUCIÉRNAGA.

El Algoritmo Luciérnaga es uno de muchos algoritmos bio-inspirados o inspirados en la naturaleza, obtiene su nombre porque su metodología de operación está basada en el comportamiento social de las luciérnagas, utilizando tres reglas básicas para su funcionamiento [13]. i.

Todas las luciérnagas son unisex, esto quiere decir que se sienten atraídas por otras luciérnagas sin importar su sexo.

ii.

El atractivo de una luciérnaga es proporcional a su brillo, esto significa que en un par de luciérnagas la menos brillante será atraída por la más brillante. En ausencia de una luciérnaga más brillante, la luciérnaga se moverá aleatoriamente.

iii.

El brillo de una luciérnaga será determinado por su función objetivo. En un problema de maximización el brillo de cada luciérnaga es proporcional al valor de la función objetivo. En el caso de minimización (SCP), el brillo de las luciérnagas es inversamente proporcional al valor de su función objetivo.

La fórmula de atractivo puede ser cualquier función monótonamente decreciente como la siguiente. ,

optimización computacional, usando el orden ascendente de la población de luciérnagas a través de la evaluación de la función objetivo. Entonces, la luciérnaga más brillante ocupa la posición cero en la matriz que contiene a la población. En las líneas 4 y 7 del algoritmo, es posible apreciar la optimización computacional. 1Begin 2 Iniciar Parámetros 3 Evaluar Intensidad de Luz I determinada por f(x), ver Eq. 1 4 Ordenar la población ascendiente de acuerdo al fitness 1/f(x) ver Eq. 1. 5 while t < Nº generación do 6 for (m fireflies) do 7 for (m fireflies) do 8 If 9 movimiento = calcular el valor de acuerdo a Eq (6), Funciones de Transferencia y Métodos de Discretización. 10 end If 11 Reparar Solución 12 Actualizar intensidad de Luz I 13 end For j 14 end For i 15 t = t +1 16 end while 17 Salida de Resultados 18End

(4)

es el Donde es la distancia entre dos luciérnagas, atractivo inicial de la luciérnaga y es el coeficiente de absorción de luz. La distancia entre dos luciérnagas y en las posiciones y respectivamente, puede ser definida como la distancia Cartesiana o Euclidiana como la siguiente. (5) Donde es el valor actual de la dimensión de la luciérnaga (una luciérnaga es una solución del problema) y es el número de dimensiones o variables del problema. El movimiento de una luciérnaga , cuando se siente atraída por otra luciérnaga más atractiva (más brillante) , está determinado por. (6) Donde el primer termino es la posición actual de la dimensión de la luciérnaga en la iteración . El segundo término es debido a la atracción. El tercer término introduce la asignación aleatoria, con siendo el parámetro de asignación al

Figure 1. Pseudocódigo de Luciérnaga Binaria Modificada

IV.

TABLE I.

FUNCIONAES DE TRANSFERENCIA

S-Shape S1

V-Shape V1

S2

V2

S3

S4

distribuido entre 0 y 1. III.

FUNCIONES DE TRANSFERENCIA

Las funciones de Transferencia nos permiten trasladar el espacio de búsqueda continuo a un espacio de búsqueda binaria, junto a los métodos de Discretización permiten reemplazar un elemento de la solución desde 0 a 1 o viceversa [17], en este trabajo se han utilizado las funciones denominadas V-shaped o S-shaped, denominadas de esa forma, según la curva que representan.

EL ALGORITMO BINARIO LUCIÉRNAGA MODIFICADO

En este trabajo, se propone una modificación al algoritmo binario clásico [9,14], esta modificación consiste en una

CISTI 2015 | 85

j w

j w

j w

j w

j w

j w

V3

T (d wj )

d wj 2

V4 d wj 3

T (d wj )

x 1 d wj 2

2

2 arctan( d wj )

V.

MÉTODOS DE DISCRETIZACIÓN

A continuación se presentan los Métodos de Discretización utilizados en este trabajo. Luego de la aplicación de cada uno de estos métodos sobre cada uno de los elementos de la solución (luciérnaga) , el valor obtenido puede ser 0 o 1. i.

Standard

En estas pruebas se utilizaron los siguientes parámetros: = 0.5, = 1.0, = 1.0, Tamaño de la Población = 50, Nº Generaciones = 50, Triales = 30. Estos parámetros, fueron seleccionados luego de una fase de pruebas realizadas sobre algunos de los archivos SCP seleccionados al azar. Con esta configuración de parámetros se obtuvieron mejores resultados en dichos archivos.

(7)

ii.

Elitista (8)

iii.

Complemento

(9)

iv.

Probabilidad Estática

VII.

En una nueva fase de investigación, será estudiada y analizada la modificación en el movimiento de las luciérnagas basada en la segunda regla fundamental del movimiento. Se agregara una etapa de movimiento aleatorio, que será aplicada cuando la luciérnaga no encuentre una más brillante.

(10)

TABLE II. Opt.

Min

Avg.

41

429

429

433,5

0

51

253

257

268.53

1.58

61

138

138

148.46

0

A1

253

255

259.63

0.79

B1

69

71

78.93

2.89

C1

227

230

234.03

1.32

D1

60

60

61.33

0

NRE.1

29

29

29.93

0

NRF.1

14

15

16.4

7.14

NRG.1

176

185

192.63

5.11

NRH.1

63

69

71.9

9,52

RESULTADOS EXPERIMIENTALES

El algoritmo fue ejecutado 30 veces por cada instancia. En este trabajo se presentan los mejores resultados de las instancias de los archivos SCP con valor óptimo conocido 4.1, 5.1 y 6.1 presentados por Balas and Ho [1], archivos con valor óptimo conocido A.1, B.1, C.1, D.1 presentado por Beasley [3] y archivos con valor óptimo desconocido NRE.1, NRF.1, NRG.1, HNR.1 presentado por Beasley [2]. La columna OPT muestra el valor óptimo conocido, la columna MIN, y AVG muestran el mínimo y el valor promedio obtenido en las pruebas y la columna RPD representa la distancia de nuestro resultado al optimo [18]. (11)

RESULTADOS

Instancia

v. Ruleta Elitista El Método de Discretización Ruleta Elitista o Elitist Roulette en inglés, conocido también como Monte Carlo, consiste en la selección aleatoria entre las mejores luciérnagas de la población, asignándole una probabilidad proporcional a su fitness para ser seleccionadas. VI.

CONCLUSION

En este trabajo, presentamos el Algoritmo Binario Luciérnaga Modificado apoyado en ocho funciones de transferencia y cinco métodos de Discretización. Los resultados presentados a través de la experimentación y las soluciones obtenidas en cada uno de los problemas. El Algoritmo Binario Luciérnaga Modificado es una gran opción para resolver el problema de Cobertura de Conjunto, ya que hemos obtenido excelentes resultados y resultados muy cercanos al óptimo a un bajo coste computacional. Nuestra propuesta puede alcanzar muy buenas soluciones (óptimos locales o valores óptimos conocidos) en unas pocas iteraciones.

RPD.

AGRADECIMIENTOS El autor Broderick Crawford es apoyado por CONICYT/ FONDECYT/REGULAR/1140897, Ricardo Soto es apoyado por CONICYT/FONDECYT/INICIACION/11130459 y Fernando Paredes es apoyado por CONICYT/FONDECYT/ REGULAR/ 1130455.

CISTI 2015 | 86

REFERENCIAS BIBLIOGRÁFICA [1] [2] [3] [4] [5]

[6]

[7] [8] [9]

[10] [11] [12] [13] [14]

[15] [16] [17] [18]

E. Balas and A. Ho. Set Covering Algorithms Using Cutting Planes, Heuristics, and Subgradient Optimization: a Computational Study. Mathematical Programming Studies, 12: 37 60. Elsevier, 1980. J. Beasley. A lagrangian heuristic for set-covering problems. Naval Research Logistics (NRL), 37(1): 151 164, 1990. J. E. Beasley. An algorithm for set covering problem. European Journal of Oper- ational Research, 31(1):85 93, 1987. E. Boros, P. L. Hammer, T. Ibaraki, and A. Kogan. Logical analysis 190, of numerical data. Mathematical Programming, 79(1-3):163 1997. B. Crawford, R. Soto, R. Cuesta, and F. Paredes. Application of the Artificial Bee Colony Algorithm for Solving the Set Covering Problem. The Scientific World Journal, Vol. 2014 (2014), Article ID 189164, 8 pages, 2014. R. Cuesta, B. Crawford, R. Soto, and F. Paredes . An Artificial Bee Colony Algorithm for the Set Covering Problem. In proceedings of 3rd Computer Science On-line Conference 2014 (CSOC), Modern Trends and Techniques in Computer B. A. Foster and D. M. Ryan. An integer programming approach to the vehicle scheduling problem. Operational Research Quarterly, pages 367 384, 1976. M. R. Garey and D. S. Johnson. Computers and Intractability; A Guide to the Theory of NP-Completeness. W. H. Freeman & Co., New York, NY, USA, 1990. B. Crawford, R. Soto , M. Olivares-Suárez, and F. Paredes. Using the Firefly Optimization Method to Solve the Weighted Set Covering Problem. In proceedings of the International Conference on Computer Interaction (HCI), pages 507-512, CCIS 434, Springer, 2014 B. M. Smith. Impacs a bus crew scheduling system using integer programming. Mathematical Programming, 42(1):181 187, 1988. C. Toregas, R. Swain, C. ReVelle, and L. Bergman. The location of emergency service facilities. Operations Research, 19(6):1363 1373, 1971. F. J. Vasko, F. E. Wolf, and K. L. Stott Jr. A set covering approach to metallurgical grade assignment. European Journal of Operational Research, 38(1):27 34, 1989. X.-S. Yang Nature-inspired metaheuristic algorithms. Luniver press, 2010. B. Crawford, R. Soto, M. Olivares-Suárez, and F. Paredes. A Binary Firefly Algorithm for the Set Covering Problem. In proceedings of 3rd Computer Science On-line Conference 2014 (CSOC), Modern Trends and Techniques in Computer Science, pages 65-73, AISC 285, Springer, 2014. A. Caprara, M. Fischetti, and P. Toth. A heuristic method for the set covering problem. Oper. Res., 47(5):730 743, May 1999. M. L. Fisher and M. B. Rosenwein. An interactive optimization system for bulk- cargo ship scheduling. Naval Research Logistics (NRL), 36(1):27 42, 1989. S. Mirjalili and A. Lewis. S-shaped versus v-shaped transfer functions for binary particle swarm optimization. Swarm and Evolutionary Computation, 9:1 14, 2013. Z. G. Ren, Z. R. Feng, L. J. Ke, Z. J. Zhang. New ideas for applying ant colony optimization to the set covering problem. Computers & Industrial Engineering, 58: 774 784, 2010

CISTI 2015 | 87

Diseño de un Sistema Inteligente para el Apoyo en El Diagnóstico de Pacientes Design of an Intelligent System to Support the Diagnosis of Patients Jose Luis Flores, Ingenieria de Sistemas, Medellín, Colombia, Servinte SAS, [email protected], Miguel Aristizabal, UNE Telecomunicaciones, [email protected], Medellín, Colombia Resumen Los sistemas de información se han convertido en elementos indispensables en diferentes campos de la tecnología y el sector de la salud ha sido un gran beneficiario. Este tipo de sistemas permiten la entrega oportuna y precisa de información médica que se convierte en un insumo indispensable para atender de manera oportuna una urgencia médica. Este trabajo se centra en el diseño y desarrollo de un sistema inteligente para la clasificación en la atención de los pacientes del sistema de salud de Colombia. El artículo describe los aspectos relacionados con el diseño arquitectónico del sistema que puede realizar diagnósticos médicos a los pacientes que han sido clasificados de una prioridad baja y se quedarían largos períodos de tiempo para ser atendidos. Palabras Clave: Sistema inteligente, arquitectura de software, sistemas de clasificación.

Jaime Alberto Echeverri Arias, Universidad de Medellín, Ingenieria de Sistemas, Medellín, [email protected], Camilo Marín, Universidad CES, Medellín, Colombia, [email protected] mayor urgencia deben ser tratados con prioridad, es imprescindible siempre que la demanda exceda la capacidad resolutiva del servicio [1] decide la prioridad de atención del paciente, el diagrama de flujo presentado en la Figura 1, muestra como entre mayor sea la prioridad, más rápido debe ser atendido el paciente. La prioridad del sistema TRIAGE se basa en qué tan comprometida se encuentra la vida del paciente al momento de su valoración, cuando estos no son clasificados como prioritarios, pueden tener largos tiempos de espera para una atención. Un problema evidenciado en este método es la carencia de ayuda al diagnóstico médico que puede llevar a consecuencias fatales.

Abstract: indispensable elements in different technology fields and health area has been a great beneficiary. This type of system allow timely delivery and accurate of medical information which converts an indispensable input for attendant a timely manner a medical emergency. This work is focused in the design and development of intelligent system for classification in the care of patients of health system in Colombia. The paper describe aspects relatives with architectural system that can perform medical diagnostics to patients who have been classified low priority and would be left long periods of time to be served. Keywords; intelligent clasifficatioin systems

I.

system,

software

achitectural,

INTRODUCCION

El sistema de urgencias en Colombia está basado en un método de priorización del paciente, conocido como TRIAGE, que consiste en un proceso de valoración clínica preliminar que ordena los pacientes en función de su urgencia/gravedad, antes de la valoración diagnóstica y terapéutica completa en el servicio de urgencias, y que ayuda en situaciones de saturación del servicio o de disminución de recursos. Los pacientes con

Figura 1. Diagrama de decisiones del TRIAGE. Fuente (Ministerio de la Protección Social, 2009).

La clasificación se categoriza en cuatro o cinco prioridades dependiendo de la institución hospitalaria que adopte el modelo de priorización. En este trabajo se toma como modelo base el estudio adoptado por la institución hospitalaria San Rafael de Girardota (Antioquia, Colombia), donde se tomaron síntomas de la prioridad cuatro. Según el sistema Triage, los pacientes cuya prioridad es muy baja (No urgencia, en el sistema), pasan largos períodos de tiempo en espera de una atención, partiendo de hecho surge la pregunta de investigación, ¿Qué

CISTI 2015 | 88

funcionalidades pueden implementarse en un sistema informático, para el apoyo al diagnóstico de pacientes de los servicios de urgencias en Colombia? Tomando el interrogante en el párrafo anterior, se puede plantear un método de apoyo a la atención de los pacientes de urgencias en la realización de su diagnóstico, que han sido clasificados en nivel de urgencia menor o no urgente, lo que permitiría disminuir la congestión de este servicio al lograr una atención más ágil. Diferentes encuestas realizadas a usuarios del sector salud dan cuenta de los niveles de satisfacción. La figura 2 presenta los resultados obtenidos de acuerdo a la calidad de la atención. A la pregunta: ¿Considera que si llegara a estar gravemente enfermo va a poder acceder de manera oportuna/a tiempo a través de su EPS a los servicios de salud necesarios? Los resultados dan cuenta que las personas clasificadas de prioridad alta, sienten que podrán ser atendidas de una manera ágil, pero afecta la calidad de la atención de personas no catalogadas en prioridad alta. 60% 49,8%

50% 40%

31,0%

30% 20% 10% 0%

14,6% 4,0% Definitivamente No Probablemente No

0,7% Probablemente Si

Definitivamente Si

Ns/Nr

Figura 2: Resultado encuesta percepción de los usuarios de urgencias cuando se encuentran gravemente enfermos. Fuente: Elaboración propia

Las cifras son tomadas directamente del Ministerio de Salud. Pueden tomarse urgencias mayores de una hora, este tiempo sea real o alterado aún sigue siendo una molestia para las personas que necesitan de una atención. Un sistema con la capacidad de realizar diagnósticos médicos emulando el conocimiento de un profesional de la salud podría facilitar la atención de pacientes en urgencias, donde la mayor atención de los médicos se enfoca en los pacientes con un nivel de riesgo alto de comprometer su vida y permitiría una disminución del número de pacientes a atender. Existen varios sistemas que han utilizado técnicas de inteligencia artificial para lograr realizar diagnósticos médicos, apoyando la gestión de los médicos en el mundo, un caso reconocido es Isabel, se trata de un sistema Web, es un sistema de soporte de decisiones clínicas, el cual ha sido exitosamente probado en casos complejos, en este sistema el usuario puede obtener diagnósticos a partir de los síntomas que son tomados como texto libre [2].

Figura 3: Tiempo de espera en minutos de atención de pacientes en los servicios de urgencias en Antioquia vs Colombia. Fuente: Ministerio de Salud (Gobierno Colombia, 2012)

Dado que un sistema que sea capaz de apoyar la toma de decisiones en urgencias debe tener un conocimiento en el diagnóstico de una enfermedad, emulando el conocimiento de un experto, el que deberá crecer a medida que se alimenten los diagnósticos, por tal motivo, desde el punto de vista de arquitectura del software, el sistema debería tener una estructura que garantice escalabilidad a medida que vayan creciendo los diagnósticos. En el estudio, se tomaron historias de usuario tanto a médicos, enfermeras y personas, donde demuestra que más allá del mismo objeto del diagnóstico, el sistema puede crecer a partir de temas como históricos, signos vitales e integraciones con dispositivos externos, por tal motivo, la tecnología a utilizar debe permitir extensibilidad para permitir un futuro crecimiento [3]. El artículo está organizado de la siguiente manera, en la sección II se presenta la arquitectura del sistema mostrado los componentes y su interacción, en la sección III, se presenta detalles referentes al diseño del sistema, y en la sección IV las conclusiones y el trabajo futuro. II.

ARQUITECTURA DEL SISTEMA

La clasificación es la capacidad de imputar un objeto a una clase específica. Se requiere de cierto grado de abstracción para extraer generalidades a partir de datos disponibles. Para un humano la clasificación de un objeto a una clase es una tarea relativamente fácil, para una maquina por otro lado, es una cuestión compleja, diferentes técnicas han sido utilizadas para resolver el problema de la clasificación. Dentro de los métodos de valoración en una aplicación de diagnóstico se considera, el acierto, la sensibilidad que en el área médica es fundamental para obtener una proporción alta de aciertos. La solución propuesta, plantea un modelo basado en el FrameWork de.Net, donde se encuentra separada la lógica del negocio del sistema integrado con el componente Drools.NET; Este es un motor de reglas de negocio (BRE: Business Rules Engine) basado en el algoritmo Rete de Charles Forgy, que tiene la capacidad de soportar una indexación de alto rendimiento, restricciones de campos, gestión de agendas, entre otras ventajas. Este motor permite la implementación de

CISTI 2015 | 89

la reglas, garantizando el crecimiento de estas sin alterar el modelo de negocio [4]. Las reglas, se diseñan dentro de un archivo de extensión DRL son Archivos de datos asociados con DocObject Resource Locator, se pueden adicionar reglas sin tener que volver a realizar compilaciones del aplicativo. La figura siguiente presenta una vista de alto nivel de un sistema de producción de reglas.

Figura 5: sistema de producción de reglas.

III.

DISEÑO DEL SISTEMA

Las reglas definidas son almacenadas en la memoria de producción y los hechos en la memoria de trabajo, estos pueden ser modificados o recuperados. De esta manera un sistema con un gran volumen de normas y hechos puede dar lugar a muchas reglas haciendo más preciso el sistema [4]. La figura 6 presenta la sintaxis de este sistema para una regla.

Tabla 1. Capas del sistema Capas

Descripción

Model

En esta sección se representan las entidades que representan el negocio Son las vistas o pantallas que se muestran al usuario Se incluyen las funcionalidades que representan la interacción entre la vista y el modelo.

View: ViewModel

Para la realización de un diagnóstico médico, un profesional de la salud empieza a descartar del universo de diagnósticos de acuerdo a una serie de síntomas que puede presentar el paciente, partiendo de su conocimiento y experiencia puede determinar una enfermedad o apoyarse en el conocimiento de otros, o de una serie de exámenes que permitirán confirmar el diagnóstico. Partiendo de la premisa que el diagnóstico médico se puede modelar, partiendo que un diagnóstico es comprendido por una serie de síntomas asociados, por ende la entidad de negocio principal es el diagnóstico (Diagnostic), de acuerdo a los síntomas (Syntom), un médico puede solicitar exámenes para apoyar su diagnóstico (DiagnosticHelp) cuando no tiene la suficiente claridad del mismo. Para identificar un síntoma, se parte de un conjunto de preguntas que constituirían las reglas (Poll) que permitirían al sistema lograr tomar la decisión de qué se podría descartar. Adicionalmente, existen diagnósticos que pueden descartarse de acuerdo a la información previa del paciente, por ejemplo partiendo del sexo y la edad del paciente, por tal motivo, Diagnostic usa un enumerado de sexo (Sex). La interacción entre la vista y el modelo, se da básicamente con una clase abstracta llamada ModelBase, la que permitiría la extensibilidad del sistema.

Figure 6. Ejemplo de Regla

Figura 8: Modelo de entidades de negocio.

Figura 7: Diagrama de dominio de la solución propuesta

La arquitectura del sistema de diagnóstico comprende tres secciones principales, basados en el patrón MVVM Fuente especificada no válida. Sugerido por Microsoft para la implementación de sistemas dentro de la tecnología WPF (Windows Presentation Fundation) [5], estas secciones se presentan en la tabla 1.

Existe una serie de vistas donde se representará gráficamente las entidades de negocio, El sistema tiene una ventana principal (MainWindow) escrita en un lenguaje de formato para el diseño de interfaces de usuario, el que se hace fundamental para la construcción de las interfaces de programación del Framework de trabajo seleccionado. XAML (Lenguaje de Marcado de Aplicaciones eXtensible), es el lenguaje que subyace a la presentación visual de una aplicación desarrollada en Microsoft ye contiene diversas secciones que cargan controles de usuario para representar [6]:

Identify applicable sponsor/s here. If no sponsors, delete this text box. (sponsors)

CISTI 2015 | 90

1. RelevantInformationView: Corresponde a la información relevante del paciente, donde se toman datos como la edad, sexo, alergias, antecedentes de enfermedades, etc. 2. RulesSetView: Vista donde se encontrarán las preguntas que permitirán identificar los síntomas 3. DiagnosticView: diagnóstico

Vista

con

el

resultado

del

lenguaje XAML, donde están escritas las vistas pueden ser migrados a dispositivos móviles como para sitios Web. IV.

CONCLUSIONES

Una conveniente estructura de la información posibilita el diseño, desarrollo y la construcción de Sistemas para la clasificación de pacientes de acuerdo a la gravedad. Los sistemas expertos están disponibles ininterrumpidamente de día y noche, ofreciendo siempre su máximo desempeño, tienen la ventaja adicional de poder duplicarse indefinidamente, se pueden ajustar a diferentes normas establecidas y son consistentes en su desempeño. Como trabajo futuro se espera definir un conjunto amplio de reglas que faciliten la clasificación de pacientes. AGRADECIMIENTOS

Figura 9: Modelo de vistas

La interacción del modelo con las vistas, se da mediante la clase abstracta ModelBase, la cual se encarará de la extensibilidad y flexibilidad entre la vista y el modelo, adicionalmente se encarga de heredar de la interfaz INotifyPropertyChanged para permitir notificar a las vistas el cambio de valores y poderlos visualizar en pantalla. En la Figura 10 se observan las entidades tipo ViewModel utilizadas, donde DiagnosticModel se encarga de la interacción de la vista del diagnóstico, SyntomModel para la interacción con la vista de síntomas y PollModel para la interacción con la vista de preguntas con las reglas de Drools.

Figura 10: Modelo de VIEWMODEL.

El modelo garantiza tanto la flexibilidad, escalabilidad y una alta disponibilidad dentro de las máquinas que son estaciones cliente, para garantizar un mayor rendimiento de la tecnología basada en WPF, se utiliza como base el Framework 4.5 de .Net donde se han incluido mejoras de rendimiento para las mismas Fuente especificada no válida., adicionalmente, el

Los autores expresamos nuestro agradecimiento a la Universidad de Medellín, por el apoyo concedido en la ejecución de proyectos de investigación adscritos a e Ingeniería de Sistemas. V.

BIBLIOGRAFÍA

VI. [1] J. G. Jiménez, «Clasificación de pacientes en los servicios de urgencias y emergencias: Hacia un modelo de triaje estructurado de urgencias y emergencias». [2] B. ES., Clinical Decision Support Systems., New York: Springer, 1999. [3] C. M. a. S. E.-M. D. Foster, «A Survey of Agent-Based Intelligent Decision Support Systems to Support Clinical Management and Research,» de Workshop on MultiAgent Systems for Medicine Computational Biology, and Bioinformatics, Utrecht, Netherlands, 2005. [4] T. J. D. Team, «drools,» 21 5 2006. [En línea]. Available: https://docs.jboss.org/drools/release/5.5.0.Final/droolsexpert-docs/pdf/drools-expert-docs.pdf. [Último acceso: 5 12 2014]. [5] Microsoft, «MSDN,» 2015. [En línea]. Available: https://msdn.microsoft.com/eses/library/aa970268%28v=vs.110%29.aspx. [6] L. A. MacVittie, XAML in a Nutshell (In a Nutshell (O'Reilly)), O´Reilly, 2006. [7] Microsoft, «Centro Desarrollo .Net,» 2015. [En línea]. Available: https://msdn.microsoft.com/eses/library/windows/apps/jj883732.aspx. [8] M. Negnevitsky, «Artificial Intelligence, A Guide to p. Addison Wesley.

CISTI 2015 | 91

Shortening Changeover Time - An Industrial Study 1

Chair of Management and Production Engineering Poznan University of Technology Line 3: Poznan, Poland [email protected]

1

Keywords- single minute exchange of die method, fiberboard manufacturing, lean manufacuring.

INTRODUCTION

Economic changes on the competitiveness of wood industry are forcing the producers willing to maintain position in the market to search for solutions designed to streamline production processes. Therefore, the application of appropriate management concepts or philosophies, aimed at reducing costs by eliminating waste and improving production processes are needed. Thereby obtaining competitive advantage leads often to the need of applying the Lean Manufacturing methodology, and this is derived from the Toyota Production System concept. Creators of this methodology were Toyoda and Taiichi Ohno. The main types of waste identified in manufacturing companies are usually divided into seven categories (overproduction, inventory, unnecessary movements, unnecessary over-processing, defects, unnecessary transport, and waiting) [1] and one of the tools greatly used to reach improvements reduction or elimination regarding these categories is the method of Single Minute Exchange of Die (SMED) [2, 3]. The creator of the SMED methodology is Shingeo Shingo, who introduced the concept of rapid changeovers in 1950. II.

2

Department of Production and Systems, Mechanical Engineering Department University of Minho, Guimarães, Portugal [email protected], [email protected]

Abstract This paper presents the results of the use of the Single Minute Exchange of Die method to shorten changeover time on machines in a polish production company. This project has been developed for a manufacturing company, whose products are fiberboard, hardboard and softboard products manufactured by a highly specialized industry using only pure wood fibers. Long changeover times used to conduct to bad results in timely delivery of orders. Therefore, in this work each element of the changeover time was analyzed to understand if it could be eliminated, moved or simplified. Implemented solutions significantly reduce setup time and improve the Company's competitiveness.

I.

Maria Leonilde R. Varela, 2José M. Machado

LITERATURE REVIEW

The increasing speed of technological change and globalization of emerging markets has enlarged competition worldwide, leading manufacturers face unprecedented pressure levels. The tensions created by the appearance of foreign products, new product introductions by competitors, more

innovative methods, items with shorter life and advances in production and information technology forced companies to respond to these demanding and growing challenges, as stated by Karim Smith, Halgamuge, and Islam, in 2008 [5]. As a result, organizations that understood the importance of belonging to a global market sought to become more competitive through the use of operational methods based on innovative production systems, distinct from traditional manufacture models, as referred in 2005, by Rawabdeh [6] unable to meet the requirements and paradigms of the current situation. Thus, Companies have been forced to look beyond costs, looking for a greater emphasis on products that are needed by customers, while providing answers more quickly than its competitors and exceeding the quality requirements [6]. According to Womack and Jones, in 2003, in order to achieve these objectives outlined by the organizations it is useful to apply Lean Production (LP) methodology [7]. This concept was introduced by John Krafcik, referred by Womack, Jones and Roos, in 1990, as a way of referring to Toyota Production System (TPS) [8]. LP is defined by Shah and Ward, in 2003, as a multi-dimensional approach that encompasses a wide variety of tools in an integrated system [9], which main underlying ideas consist on the continuous elimination of waste, as being all the activities that add no value to the process or product, and requiring a fundamental organizations culture change, as stated by Liker, in 2004 [10], and Pavnaskar, Gershenson, and Jambekar, in 2003 [11]. As stated by Melton in 2005 [12], the lean philosophy leads to many benefits, such as reduced lead times, reduced need for rework, reduced costs, increased robustness of processes, reduced inventory and elimination of . In The well-known book "Toyota Production System: Beyond Large-Scale Production" by Ohno, in 1988 [13], the author identified the overproduction, defects, excess inventory, drives to overproduce, transport and waits as the seven wastes to be eliminated through the implementation of this methodology. Later, Liker, in 2004 [10] pointed to the wastage of the creativity of workers as the eighth waste, believing that the fact that organizations that do not involve or listen to their employees are responsible for loss of time, ideas, and opportunities for improvement and learning.

CISTI 2015 | 92

The Lean methodology is based on five fundamental principles put forward by Womack and Jones, in 2003) [7] Value, Value Chain, Flow, Pull and Perfection - which, according to Hines, Found, Griffiths and Harrison, in 2011 [14], enable to demonstrate how this approach can be extended to any organization or company, regardless of the kind of industry on which they operate or the country where they are placed. The value specifies what does add actually value to some process or product, according to the customers perspective, and is the first critical step on this philosophy. Creating Value Chain ensures that each step provides value, summing up the set of activities necessary to obtain a product or service that satisfies the customer. The flow rearranges the processes for products to move smoothly through the steps of creating value. The Pull strategy allows the client to "pull" the product, rather than being pushed to him. Finally there is the Perfection, which is based on a constant effort in order to meet customer needs, in order to improve processes and achieving "zero defects", as stated by several authors, namely by Womack and Jones, in 2003, and by Staats, Brunner, and Upton, in 2011 [7, 15, 16, 17]. When implemented together, these principles form the Lean thinking for simplifying how the company produces value for its customers while eliminating all kind of waste, forming a solution process that, through incremental and gradual changes, can completely change work processes and mostly people [18]. The Lean production model provides a set of tools that assist in the identification and steady elimination of in a company or organization, as referred by Kumar and Abuthakeer, in 2012 [19], such as Kaizen (Continuous Improvement), Value Stream Mapping (VSM), 5S, Total Productive Maintenance (TPM), Single Minute Exchange of Die (SMED) and Just-in-Time (JIT). The Kaizen philosophy is the starting point for all Lean initiatives and is based on continuous improvement throughout the organization, as referred by Ortiz, in 2006 [20]. The VSM, as an analysis and diagnostic tool, displays and identifies waste and its sources, as stated by Rother and Shook, in 2003 [21]. Courtois, MartinBonnefois, and Pillet, in 1997 state that the 5Ss aim at the systematization of the activities, and the organization and cleaning of workspaces [22]. Moreover, Swanson, in 2001refere that the TPM seeks to improve the performance of the equipment while constantly preventing the occurrence of faults [23]. The SMED allows a decrease on the equipment setup times, providing many benefits to Companies, such as reductions in stock levels, the WIP, the size of the lots, the times of production and delays, as well as improvements in quality, flexibility of production, safety and capacity, as stated by Shingo, in 1985 [24]. Moreover, according to Courtois et al., in 1997 [22], the JIT philosophy aims to produce only what will be sold at the time needed, attempting to eliminate as much waste in organizations in order to achieve zero inventory, as is also referred by Ha and Kim, in 1997 [25]. However, Liker, in 2004 [10] recalls that the use of Lean tools in a Company is not in itself a guarantee of success, since the possibility of making the adoption of this philosophy, in a competitive and sustainable advantage, is dependent on the follow-up of all the principles that make it up. When this is not

accurately accomplished, Companies are only able to generate short-term results and will turn unsustainable. III.

SINGLE MINUTE EXCHANGE OF DIE

The SMED method means a fast changing tool aiming at reducing the time of a production changeover. This method does also facilitate the reduction of waste by setting the minimal lot size. During the production changeover, there is an important aspect of production that should not be neglected: the starting process of a fabrication line. This part could represent a significant time waste if it does not perform well. The objective is to reduce the setting time, for decreasing the production changeover time or instant adjustments. Hence, in order to reduce the setting time of the production changeover two major procedures may be adopted [2]: Internal operations: It corresponds to operations that could be done only if the machine is stopped and produces nothing. External operations: Those operations could be performed even if the machine is in production mode. In order to apply this technique, we should follow strictly four steps [4]: 1. Identification of internal and external operations This first step will affect the result if it is not done well. In classic settings, internal and external operations are mixed. It means that some internal operations are done in external way, and vice versa. A precise analysis on how its production changeover is done, at a given moment, should be undertaken. One way to accomplish this step is to film one or more production changeover. Those films will be analyzed by a group of workers or technicians. It is necessary to identify each operation in the production changeover. There are 12 distinct operations preparation, settings, test, fixing, rectification, over-production, displacement, transport, waiting, stocks, operation, and staff use. 2. Internal and external operation separation This is probably the most important step in the SMED process. In fact the more operations are separated from one type to the other, the easier it will be deleting waste time. This is why this point should be done by a group of various persons. 3. Internal to external transformation Mostly, everyone wants to put as much as possible tasks in external settings. In fact, external settings could be realized even if the machine is in production mode. Those external times could be minimized in so far as the worker could prepare everything for the next production changeover. 4. Settings tasks rationalization The last steps of the SMED method consist on minimizing settings time. The conversion of internal settings to external settings generates a time gain. However, when we rationalize settings, we could improve the minimization of the production changeover time.

CISTI 2015 | 93

Of course it is necessary to maintain the time that has been defined in the final standard. That is why results should be recorded on a graph. Each time, the time limit is reached or exceeded, staff has to check what the main cause was. Then, time goals could be established.

loading semi-products on the line, control of adhesive dispensing, collection of plates, quality control,

Successful implementation of SMED will maintain the stability of the production process, thus enhancing the flexibility and makes it possible to shorten the lead time. IV.

changeover of machine, maintenance of lines at a standstill.

INDUSTRIAL STUDY

Tests were carried out in a Company of wood manufacturing where one of the main products are porous fiberboards. The research was conducted at the department of coated surface. The analyzed section performs the following operations: bonding, grinding, cutting of panels on the format and milling edges of the plates. The type of cutter used in the milling operation is dependent on the product that is currently being produced.

A. Analysis of the changeover process Before the measurements all changeover activities are divided into two categories: C1 - change the machine settings involving the change in the dimensions of the plate and adjustment of the position of the elements involved in the changeover; C2 - change machine settings and cutter involving the adjustment of the position of the elements involved in the changeover and replacing the cutter.

The diagram of the process is shown in Figure1.

During the month this research took place there were a total of 39 changeovers, with a total time of 3699 min. More detailed information regarding the changeovers is summarized in Table 1.

loading of plates

TABLE I.

bonding

CHANGEOVERS INFORMATION

Type of changeover Number of changeovers The average time of one changeover

referencing

multi daylight pressing

C1

C2

19

20

61 min

127 min

Changeover made by operators was recorded on the video camera, and then all the films were analyzed for changeover process improvement opportunities. Analysis of the current situation revealed a number of factors negatively affecting the changeovers times, which can be grouped into the main classes: method, material, machine, man and environment, including factors such as: lack of work standards, lack of tools, lack of maintenance, failure to follow processing instructions, lack of automation and obsolete machinery, along with lack of motivation and adequate competence of operators. These kind of main sources of irregularities are presented in the form of Ishikawa diagram in Figure 2.

grinding

cutting of plates

milling

A thorough analysis of the Ishikawa diagram indicated that the most important factors affecting the long changeover times are mainly due to:

manual taking of plates

Figure 1. Diagram of production process.

In the analyzed Company, employees work following a four-brigade system. On the line where the research was conducted there is one operator for milling machine, one operator for gluing line and two operators for helping on the process. In addition, in the department are also a master and a foreman who participate in the process of changeover. The tasks of operators are:

CISTI 2015 | 94

Operators performing changeovers have not been trained, and therefore performing various actions takes a long time, what means that operators do not have the awareness of the costs they generate by long changeovers. Among the operators can be seen lack of motivation and lack of communication between them. Information about products that will be produced in a next order is delivered late to operators.

Storage of tools is too far from the machine, and is disordered. The lack of standards for storage of individual mills, as well as the lack of a set of necessary tools is also visible, so operators use other tools, which extends the changeover process. After more particular analysis, factors affecting the duration of changeover time were identified, which are mainly related to the lack of work standards, obsolete machinery and lack of operators training. The critical factors were indicated using Pareto analysis shown in Figure 3 and summarized in Table II.

Figure 3. Pareto analysis.

For each critical factor the causes were identified. The results are summarized in Table 2. TABLE II. Critical factors

No

CRITICAL FACTORS Causes of occurrence

1

Correction of toaster settings

Seal of toaster construction

2

Change insert of cutters

Lack of cutters standardization

3

Correction of milling settings

Wrong settings for the first time

4

Removing cutters

Wedged cutters

5

Control measurements of fiberboard

6

Assembly of cutter

Incorrect production line setting for the first time Complicated assembly - lack of training

7

Idle motion of milling

Slow work of machine

8

Transfer of cutters behind milling longitudinal

9

Set up cutters guard

Lack of preparation tools before starting of changeover Lack of an adequate number of tools

10

Idle motion of crawler track

Lack of proper tools

11

Take off of air hoses

Lack of proper tools

12

Correction settings on the fiberboard tray loading

Mistakes made by operator

A timetable for the implementation of new solutions was formulated and employees were informed about plans concerning to introduce changes in the changeover process. B. Shortening changeover time In an effort to increase production flexibility was introduced in workplaces shadow boards and toolboxes, and cleaned up tools. Introduced visual storage standards for cutters and a number of changes in the spatial development (Figure 4).

Figure 4. Cutter's store.

Figure 2. Ishikawa diagram.

CISTI 2015 | 95

Minor design changes were introduced to improve changing instrumentation on lines, examples of changes made in the analyzed area is shown in Table 3, which presents a resume about the main changes that were introduced in the factory and the underlying manufacturing processes, and which led to a general improvement on the whole production environment and processes. These improvements were mainly related with the introduction of alternative changeover scenarios, along with training sessions for operators, and also a set of activities for enabling an improved preparation of materials and cutters before production. TABLE III.

DESIGN CHANGES ON LINES Modified safety fence, so as to ensure safety do not inhibit access to milling machines

Crank with a long shoulder, through which operators are doing it faster and with less strength

Folding covers are mounted, thereby avoiding the problem of dirt and clog the movements of milling working

So, summarizing, the main improvements introduced were related to the introduction of scenarios for changeovers and for machine maintenance. Moreover, all operators were trained, and outdoor activities like preparation of cutters and delivering them to the workstation were performed before stopping the line. V.

CONCLUSIONS

Implemented solutions helped to reduce changeover times by 50%. Moreover, production flexibility was increased and significantly shortened the turnaround time for the customer. Through training and involvement of operators workflow is also further improved. Furthermore, standardization of changeovers and reduction of the cost of staging the line contributed to increase the Company's competitiveness in the market, by enabling a quicker and better answer to the clients requests.

The compressed air hoses to facilitate purification of slots

ACKNOWLEDGMENT

Scale, which helped to significantly reduced measurement of time manually

This work is supported by Portuguese National Funds Projeto Estratégico UI 252 2011 , reference PEst-OE/EME/UI0252/2014, and FCOMP-01-0124FEDER-PEst-OE/EEI/UI0760/2014. REFERENCES [1] Stopper to prevent movement of the cutter

food quality", Difin Publishing, Warsaw, 2011. [2] S. Shingo, "A revolution in manufacturing: the SMED system", Productivity Press, Portland Oregon, 1985 [3] J.P. Womack, D.T. Jones, "Lean companies. Elimination of waste - the key to success", Warsaw, 2001.

CISTI 2015 | 96

[4] S.A. Kumar and N. Suresh, "Production and Operation Managements", New Delhi, 2008. [5] Karim, M. A., Smith, A. J. R., Halgamuge, S. K., & Islam, M. M. (2008). A comparative study of manufacturing practices and performance variables. International Journal of Production Economics, 112(2), 841-859. doi: 10.1016/j.ijpe.2007.07.005. [6] Rawabdeh, I. A. (2005). A model for the assessment of waste in job shop environments. International Journal of Operations & Production Management, 25(7-8), 800-822. doi: 10.1108/01443570510608619. [7] Womack, J. P., & Jones, D. T. (2003). Lean Thinking: Banish Waste and Create Wealth in Your Corporation (2nd ed.). New York: Free Press. [8] Womack, J. P., Jones, D. T., & Roos, D. (1990). The Machine That Changed The World: The Story of Lean Production. New York: Rawson Associates. [9] Shah, R., & Ward, P. T. (2003). Lean manufacturing: context, practice bundles, and performance. Journal of Operations Management, 21(2), 129-149. doi: 10.1016/s0272-6963(02)00108-0. [10] Liker, J. K. (2004). The Toyota way: 14 management principles from the world's greatest manufacturer. New York: McGraw-Hill Professional. [11] Pavnaskar, S. J., Gershenson, J. K., & Jambekar, A. B. (2003). Classification scheme for lean manufacturing tools. International Journal of Production Research, 41(13), 3075-3090. doi: 10.1080/0020754021000049817. [12] Melton, T. (2005). The benefits of lean manufacturing What lean thinking has to offer the process industries. Chemical Engineering Research & Design, 83(A6), 662673. doi: 10.1205/cherd.04351. [13] Ohno, T. (1988). Toyota Production System: Beyond Large-Scale Production. New York: Productivity Press. [14] Hines, P., Found, P., Griffiths, G., & Harrison, R. (2011). Staying Lean: Thriving, Not Just Surviving (2nd ed.). New York: Productivity Press. [15] Staats, B. R., Brunner, D. J., & Upton, D. M. (2011). Lean principles, learning, and knowledge work: Evidence from a software services provider. Journal of Operations Management, 29(5), 376-390. doi: 10.1016/j.jom.2010.11.005. Cellular [16] Manufacturing with Kanbans Optimization in Bosch Production System (2010), The Romanian Review Precision Mechanics, Optics & Mechatronics, (20)37, pp. 147-158. [17]

(KMIS 2010), Valencia, Spain, 25-28 October 2010, pp. 81-91. [18] Pinto, J. P. (2008). Lean Thinking: Introdução ao pensamento magro: Comunidade Lean Thinking. [19] Kumar, B. S., & Abuthakeer, S. S. (2012). Implementation of Lean Tools and Techniques in an Automotive Industry. Journal of Applied Sciences, 12(10), 1032-1037. doi: 10.3923/jas.2012.1032.1037. [20] Ortiz, C. (2006). All-out kaizen. Industrial Engineer, 38(4), 30-34. [21] Rother, M., & Shook, J. (2003). Learning to See: Value Stream Mapping to Add Value and Eliminate MUDA. Brookline, MA: Lean Enterprise Institute. [22] Courtois, A., Martin-Bonnefois, C., & Pillet, M. (1997). Gestão da Produção (4ª ed.). Lisboa: LIDEL - Edições Técnicas, Lda. [23] Swanson, L. (2001). Linking maintenance strategies to performance. International Journal of Production Economics, 70(3), 237-244. doi: 10.1016/S09255273(00)00067-0. [24] Shingo, S. (1985). A Revolution in Manufacturing: The SMED System. Cambridge: Productivity Press. [25] Ha, D. S., & Kim, S. L. (1997). Implementation of JIT purchasing: An integrated approach. Production Planning & Control, 8(2), 152-157. doi: 10.1080/095372897235415.

Proceedings of the International Conference on Knowledge Management and Information Sharing 2010

CISTI 2015 | 97

Funciones de binarización para el Algoritmo del Salto de la Rana que resuelve el Problema de Cobertura de Conjunto Binarization functions for Shuffled Frog Leaping Algorithm can solve the Set Covering Problem Broderick Crawford1,2,3, Ricardo Soto,1,4,5, Cristian Peña1, Marco Riquelme-Leiva1, Claudio Torres-Rojas1, Franklin Johnson1,6 y Fernando Paredes7 1

Pontificia Universidad Católica de Valparaíso, Valparaíso, Chile 2 Universidad Finis Terrae, Santiago, Chile 3 Universidad San Sebastián, Santiago, Chile 4 Universidad Autónoma de Chile, Santiago, Chile 5 Universidad Central de Chile, Santiago, Chile 6 Universidad de Playa Ancha, Valparaíso, Chile 7 Universidad Diego Portales, Santiago, Chile

Este paper presenta la metaheurística Shuffled Frog Resumen Leaping Algorithm (SFLA) para resolver el Set Covering Problem (SCP), el SFLA está inspirada en el comportamiento social de las ranas, y está siendo aplicada a resolver muchos problemas de optimización. El algoritmo propuesto incluye ocho funciones de binarización y un método de discretización para resolver la representación binaria del SCP. En las 65 instancias del SCP se encontraron resultados muy prometedores. Palabras Clave - Algoritmo del Salto de Metaheurísticas; Problema de Cobertura de Conjunto.

la

Keywords - Shuffled Frog Leaping Algorithm; Metaheuristics; Set Covering Problem.

INTRODUCCIÓN

El Set Covering Problem (SCP) puede ser definido de la siguiente manera, dado una matriz de uno y ceros, de m-filas y n-columnas. Una columna j puede cubrir una fila i si . Cada columna j es asociada con un costo real no negativo . Conjuntos y de filas y columnas, respectivamente. El SCP busca minimizar el costo del subconjunto , donde cada fila es cubierta

. El modelo matemático para el (1)

Sea tal: (2)

Rana;

Abstract This paper presents metaheuristic Shuffled Frog Leaping Algorithm (SFLA) to solve the Set Covering Problem (SCP), the SFLA is inspired by the social behavior of frogs, and is being applied to solve many optimization problems. The proposed algorithm includes eight binarization functions and discretization method for resolving the binary representation of the SCP. In the 65 instances of SCP we obtains very promising results.

I.

por al menos una columna SCP es:

(3) Esta es la representación usual del SCP llamada binary column-based representation, es de dominio binario y se representa como una cadena de 0 y 1 de tamaño n, donde n representa la cantidad de columnas del SCP. Este paper propone resolver el SCP con la metaheurística Shuffled Frog Leaping Algorithm (SFLA), se basa en la observación, imitación y el modelamiento del comportamiento de un grupo de ranas en la búsqueda de la ubicación que tiene la máxima cantidad de alimentos disponible [1]. El SCP ha sido resuelto utilizando técnicas completas y diferentes metaheurísticas [2, 3, 4]. El SFLA combina las ventajas de dos algoritmos, genetic-based memetic algorithm (MA) y el algoritmo PSO basado en el comportamiento social [5]. SFLA es aplicado con éxito a varios problemas de optimización, tales como la distribución de los recursos hídricos [6], la reparación de la cubierta del puente [7], arreglo de planificación de trabajos [8], multimodo problema de programación de proyectos con recursos limitados [9], el compromiso unidad problema [10] y el problema del vendedor viajero (TSP) [11].

CISTI 2015 | 98

II.

TABLE I.

SHUFFLED FROG LEAPING ALGORITHM

El SFLA consta de un conjunto de ranas que son generadas aleatoriamente. La población se divide en subconjuntos de ranas, que lleva el nombre memeplexes. Para cada uno de estos, se realiza una búsqueda local para mejorar la posición de la peor rana. Este proceso se denomina, evolución memética, que se puede repetir hasta un determinado número de iteraciones. En este sentido, las ideas generadas por cada memeplexe se transmiten a otros memeplexes en un proceso de redistribución [12]. La población inicial de ranas P es creada al azar. Esto significa que para los problemas de n variables, una rana i se . Luego, se representa como un vector calcula el fitness de cada una de las ranas y estas son ordenadas de forma descendente de acuerdo al resultado obtenido. Entonces, se generan los memeplexes m a partir de la división de la población, cada uno con f ranas (es decir, ). En este proceso, la primera rana va al primer memeplex, la segunda rana va al segundo memeplex, rana f va al memeplex m, y la rana f + 1 se remonta al primer memeplex, etc. En la búsqueda local, por cada uno de los memeplexes se y la identifica la rana con el mejor fitness , peor fitness mejor rana global se identifica como . La posición de la peor rana se ajusta de la siguiente manera:

FUNCIONES DE BINARIZACIÓN S-Shaped j w

S1 S2

j w

S3

j w

S4

j w

TABLE II.

2 d wj

d wj

d wj 2

d wj 3

FUNCIONES DE BINARIZACIÓN V-Shaped j w

V1

j w

V2 j w

V3

(4)

j2 w

V4

(5) Donde rand() es un numero aleatorio entre 0 y 1 es el cambio máximo permitido en la posición de una rana. El resultado de este proceso se compara con el fitness de la peor rana, si este es mejor, se sustituye por la peor rana. De lo contrario, se repite el cálculo de las ecuaciones 4 y 5, pero con reemplaza a ). Se vuelve a la mejor rana global (es decir, comparar el resultado obtenido, y si el último cálculo es mejor al fitness de la peor rana, se sustituye la peor rana, sino, se genera una rana aleatoriamente y esta es sustituida por la peor rana. El proceso de cambio de posición se debe realizar por un número determinado de iteraciones, el cual es definido por un parámetro. III.

FUNCIONES DE BINARIZACIÓN Y MÉTODO DE DISCRETIZACIÓN

El SCP no puede ser manejado directamente por SFLA debido a su estructura binaria, ya que hay dos posibles valores de decisión: 0 y 1. Por lo tanto, el resultado obtenido por el operado de la metaheuristica es un número real y para obtener el valor deseado, se lleva a cabo una función de binarización y un método de discretización. La función de binarización se aplica al resultado de la ecuación 4. Para ello, contamos con ocho funciones diferentes, como se muestra en la Tabla 1 y 2. El resultado de esta operación es un número entre 0 y 1. A continuación, utilizamos el método de discretización ecuación (6), para asignar un 0 o un 1.

Standard: j xnew

IV.

1 if rand 0

T (d wj ) sin o

(6)

PSEUDOCÓDIGO DE SFLA

Inicialización de los parámetros Generar aleatoriamente una población de P soluciones (ranas) for f = 1 to P do Calcular el fitness de cada solución (f) end for while (terminar = true) Ordenar la población de forma ascendente Dividir P en m memeplexes (P = m × f) for im = 1 to m do for i = 1 to it do Determinar Xg, Xb y Xw Aplicar ecuación (4), función de binarización, método de discretización y reparar la solución si es necesario if Xnew < Xw then Remplazar la peor solución else Aplicar ecuación (4), reemplazando Xb con Xg, función de binarización, método de discretización y reparar la solución si es necesario if Xnew < Xw then Reemplazar la peor solución else Generar una nueva solución aleatoria factible

CISTI 2015 | 99

end if end if end for end for Barajar los m memeplexes end while retornar la mejor solución

Función de binarización

V2 V3 V4

TABLE VI.

V.

EVALUACIÓN EXPERIMENTAL

SFLA se demostró utilizando los 65 casos de prueba de OLibrary [13] del SCP. El algoritmo fue implementado utilizando el lenguaje Java y probado en una CPU Intel Core i7 de 2.4 GHz con 8 GB de RAM y Windows 8.1. El SFLA se ejecuta 30 veces en cada una de las instancias de prueba de los 65 SCP. Probamos todas las combinaciones de funciones de binarización y el método de discretización. Se utilizó una población de 200 ranas (P = 200), 20 memeplexes (m = 20), 20 iteraciones dentro de cada memeplexe (it = 20) y condición de terminación (Imax = 100). La primera columna muestra la función de binarización que se ocupo en las prueba, las columnas Min, Max y AVG muestran el mínimo, máximo y el valor promedio obtenido en las pruebas y la columna RPD representa la desviación porcentual relativa y corresponde a la distancia de nuestro resultado al optimo ( ). Para calcular el RPD usamos Z = Min. Esta medida se calcula como: (7) TABLE III. Función de binarización

S1 S2 S3 S4 V1 V2 V3 V4

TABLE IV. Función de binarización

S1 S2 S3 S4 V1 V2 V3 V4

TABLE V. Función de binarización

S1 S2 S3 S4 V1

Max.

AVG.

RPD.

436 439 436 435 430 430 430 430

456 456 456 458 437 437 438 437

447,37 448,73 449,40 449,33 432,13 432,73 433,20 432,73

1,63 2,33 1,63 1,40 0,23 0,23 0,23 0,23

Max.

AVG.

RPD.

280 281 281 282 254 256 254 254

295 297 296 297 265 266 264 267

289,43 289,23 290,80 289,90 259,57 260,13 261,03 262,07

10,67 11,07 11,07 11,46 0,40 1,19 0,40 0,40

S1 S2 S3 S4 V1 V2 V3 V4

TABLE X. Función de binarización

S1 S2 S3 S4 V1 V2 V3 V4

INSTANCIA 6.1 (ÓPTIMO = 138) Min.

Max.

AVG.

RPD.

156 156 162 159 142

176 175 177 177 147

168,97 167,77 171,03 169,50 143,90

13,04 13,04 17,39 15,22 2,90

TABLE VIII.

TABLE IX.

CISTI 2015 | 100

AVG.

RPD.

147 146 146

144,57 144,40 144,03

2,17 2,90 1,45

Min.

Max.

AVG.

RPD.

302 313 318 320 255 255 255 255

342 346 347 351 258 258 258 258

328,67 332,53 332,40 334,63 255,73 255,90 255,60 255,90

19,37 23,72 25,69 26,48 0,79 0,79 0,79 0,79

INSTANCIA B.1 (ÓPTIMO = 69)

S1 S2 S3 S4 V1 V2 V3 V4

Función de binarización

INSTANCIA 5.1 (ÓPTIMO = 253) Min.

TABLE VII. Función de binarización

S1 S2 S3 S4 V1 V2 V3 V4

INSTANCIA 4.1 (ÓPTIMO= 429) Min.

S1 S2 S3 S4 V1 V2 V3 V4

Función de binarización

Max.

141 142 140

INSTANCIA A.1 (ÓPTIMO = 253)

Función de binarización

Figure 1. Pseudocódigo SFLA

Min.

Min.

Max.

AVG.

RPD.

95 97 99 100 70 70 72 71

118 123 128 125 76 76 76 76

108,53 110,03 112,03 110,90 72,00 72,70 73,00 73,33

37,68 40,58 43,48 44,93 1,45 1,45 4,35 2,90

INSTANCIA C.1 (ÓPTIMO = 227) Min.

Max.

AVG.

RPD.

306 307 306 297 230 230 230 229

328 338 333 337 234 235 234 234

318,87 321,90 319,60 322,30 232,83 232,63 232,83 233,07

34,80 35,24 34,80 30,84 1,32 1,32 1,32 0,88

INSTANCIA D.1 (ÓPTIMO = 60) Min.

Max.

AVG.

RPD.

97 92 97 100 60 60 60 60

2289 2320 2305 2303 61 61 61 61

828,90 1326,23 897,37 1187,13 60,53 60,60 60,60 60,70

61,67 53,33 61,67 66,67 0 0 0 0

INSTANCIA NRE.1 (ÓPTIMO = 29) Min.

Max.

AVG.

RPD.

3154 3148 3209 3186 29 29 29 29

3340 3342 3336 3345 30 30 30 30

3263,80 3275,60 3284,47 3279,27 29,60 29,63 29,50 29,57

10775,86 10755,17 10965,52 10886,21 0 0 0 0

VI.

CONCLUSIONES

[3]

En el algoritmo propuesto, hemos propuesto resolver el SCP con la metaheurística SFLA. Los experimentos muestran que la función de binarización V1 se obtuvieron los mejores resultados, es necesario hacer hincapié en que, con la función de binarización V2, V3 y V4, también se lograron buenos resultados. Para la función de binarización de S1, S2, S3 y S4, se obtuvieron buenos resultados en las instancias más fáciles. Para la familia de V-Shaped es una buena alternativa para resolver el SCP con la metaheurística SFLA. Una línea de investigación para el futuro es la integración de Autonomous Search (AS) en el proceso de resolución, donde en muchos casos la metaheurística SFLA ha demostrado excelentes resultados y una rápida velocidad de convergencia. AGRADECIMIENTOS

REFERENCIAS BIBLIOGRÁFICA

[2]

[5] [6] [7] [8]

El autor Broderick Crawford es apoyado por CONICYT/ FONDECYT/REGULAR/1140897, Ricardo Soto es apoyado por CONICYT/FONDECYT/INICIACION/11130459 y Fernando Paredes es apoyado por CONICYT/FONDECYT/ REGULAR/ 1130455. [1]

[4]

M. Eusuff, K. Lansey, and F. Pasha. Shuffled frog-leaping algorithm: a memetic meta-heuristic for discrete optimization. Engineering Optimization, 38:129-154, 2006. B. Crawford, R. Soto, R. Cuesta, and F. Paredes. Application of the Artificial Bee Colony Algorithm for Solving the Set Covering Problem. The Scientific World Journal, Vol. 2014 (2014), Article ID 189164, 8 pages, 2014.

[9] [10] [11] [12] [13]

B. Crawford, R. Soto, M. Olivares-Suárez, and F. Paredes. A Binary Firefly Algorithm for the Set Covering Problem. In proceedings of 3rd Computer Science On-line Conference 2014 (CSOC), Modern Trends and Techniques in Computer Science, pages 65-73, AISC 285, Springer, 2014. C. Valenzuela, B. Crawford, R. Soto, E. Monfroy, and F. Paredes. A 2level Metaheuristic for the Set Covering Problem.International Journal of Computers Communications and Control. Vol. 7(2), pages 377-387, 2012. J. Kennedy and R. Eberhart. Particle swarm optimization. in: Proc. IEEE Conf.Neural Networks, 4:1942-1948, 1995. M. Eusuff and K. Lansey. Optimization of water distribution network design using the shuffled frog leaping algorithm. Journal of Water Resource Plan Management, 129:210-225, 2003. H. Elbehairy, E. Elbeltagi, and T. Hegazy. Comparison of two evolutionary algorithms for optimization of bridge deck repairs. Computer-Aided Civil and Infrastructure Engineering, 21:561-572, 2006. A. Rahimi-Vahed and A. Mirzaei. Solving a bi-criteria permutation flow-shop problem using shuffled frog-leaping algorithm. in: Soft Computing, Springer-Verlag,New York, 2007. L. Wang and C. Fang. An effective shuffled frog leaping algorithm for multi modre source-constrained project scheduling problem. Information Sciences, 181:4804-4822, 2011. J. Ebrahimi, S. Hosseinian, and G. Gharehpetian. G.b. gharehpetian, unit comitment problem solution using shuffled frog leaping algorithm. IEEE Transaction on Power Systems, 26:573-581, 2011. X. Luo, Y. Yang, and X. Li. Solving tsp with shuffled frog-leaping algorithm. in: Proc. ISDA, 3:228-232, 2008. S. Liong and M. Atiquzzaman. Optimal design of water distribution network using shuffled complex evolution. Journal of Instrumentation Engineering, 44:93-107, 2004. J. E. Beasley. A lagrangian heuristic for set covering problems. Naval Research Logistics (NRL), 37(1):151-164, 1990.

CISTI 2015 | 101

Una visión sobre el uso de las TIC en PyME s de Panamá A view on the use of ICT in SMEs in Panama Lilia Muñoz

Piscis Pitti

Facultad de Ingeniería de Sistemas Computacionales Universidad Tecnológica de Panamá [email protected]

Grupo de Investigación GITCE Universidad Tecnológica de Panamá [email protected]

La progresiva inserción de las Tecnologías de Resumen Información y Comunicación (TIC) en la actividad económica, permitirá a las Pequeñas y Medianas Empresas ( ) en particular, obtener ventajas competitivas, mejorar sus procesos, así como su productividad y por ende sus ingresos, pero si se desconoce el potencial de la implementación de éstas en las actividades diarias, no se generará esa ventaja competitiva. En este artículo se presenta la situación actual de las TIC en las empresas de Panamá y la propuesta de desarrollo de un conjunto de indicadores que permitan entender el uso de las TIC, en una primera etapa en agroindustriales. Palabras Clave - TIC;

;Indicadores.

Abstract The gradual integration of Information and Communication Technologies (ICT) in the economic activity will allow Small and Medium Enterprises (SMEs) in particular to gain competitive advantages, to improve their processes and productivity and their incomes. However, if the potential for implementing them in daily activities is unknown, this competitive advantage is not generated. This article is about the current situation of ICT in SMEs companies of Panama and the proposal for the development of a set of indicators that allows understanding the use of ICT, in the first period in agribusiness SMEs. Keywords - ICT;

; Indicators.

I.

INTRODUCCIÓN

En la actualidad, los agentes económicos conviven con un gran caudal de información, sin embargo, se enfrentan a problemas de acceso y gestión de la misma. La transferencia de la información es crucial para las Pequeñas y Medianas Empresas ( ). La adquisición y el mantenimiento de un alto nivel de información acerca de las nuevas Tecnologías de Información y Comunicación (TIC) tienen gran importancia para este tipo de empresas. La inserción de nuevas TIC a la actividad económica, permitiría a las en particular, obtener ventajas en sus costos de transacción y de información. En términos generales las TIC han revolucionado las relaciones de la empresa con su entorno. El mundo tal y como lo conociamos ya no es el mismo, y las empresas no son ajenas a estos cambios [8]. Por otro lado, la incorporación de las TICs al ámbito de las es un proceso complejo al involucrar una

multiplicidad de dimensiones. La forma en que se combinan las actividades de las empresas con el uso de TICs lleva a que las trayectorias empresariales en este terreno presenten especificidades tales que las tornan distintas entre sí, incluso únicas [2], por ejemplo: a través de una página web, las empresas pueden atraer potenciales inversores al proveer información sobre sus tecnologías y posición financiera. Algunas empresas pequeñas con tecnologías de punta y/o productos únicos y con una presencia on line han recibido capitales importantes de empresas grandes [4]. Las , y aún más las de países emergentes o en desarrollo, han experimentado movimientos más bruscos en su acercamiento a la tecnología. Las iniciativas de comercio electrónico y otros servicios dedicados a las se multiplicaban sin tener realmente un modelo de negocio claramente definido y probado, esto en algunos casos puede ser una problemática. Notorio es el hecho de que las en muchos casos no disponen de una información objetiva con respecto a los beneficios y costos de la adopción de las TIC. Para ofrecer esta información, aparecen los intermediarios, generalmente llamados brokers (agencias de desarrollo económico, universidades, individuos, uniones o asociaciones, agencias de asistencia a las manufacturas, asociaciones comerciales, etc.) los cuales pueden asegurar el intercambio de información continua, de experiencia y tecnología a lo largo de los límites de la industria y entre empresas de todos los tamaños y utilizar sus extensos contactos personales para comunicarse entre sectores [2]. Esta es una de las razones por la que la propuesta que se presenta en este artículo tiene sus origenes en la Universidad Tecnológica de Panamá. La vision de la misma, es establecer una infraestructura tecnológica que permita generar una conjunto de indicadores sobre el uso de las TIC en El artículo está estructurado de la siguiente manera: en la sección II se presentan algunos escenarios de implementación de TIC en las . La sección III se describe la situación actual del uso de las TIC en las en Panamá. En la sección IV se muestra la propuesta de desarrollo de indicadores del uso de las TIC en las de Panamá,

CISTI 2015 | 102

finalmente en la sección V se presentan las conclusiones y trabajo futuro. II.

IMPLEMENTACIÓN DE TIC EN LAS PY

S

Las TIC representan una área de oportunidad para las . El desafío consiste en que necesariamente estas empresas tendrán que adoptar e incorporar de manera estratégica esta tecnología a su organización [3,4]. Dependerá de cada sector empresarial, evaluar los aspectos críticos y así elegir las herramientas tecnológicas adecuadas, verificar las barreras del uso de las TIC, y el impacto en los procesos de negocio [5]. Un diagnóstico claro y objetivo después de la evaluación de la situación actual de la empresa contribuirá a tomar las mejores decisiones. Según [5], cada empresa debería considerar los siguientes aspectos para implementar las TIC: Infraestructura de las TIC: se debe evaluar y determinar lo que en verdad se necesita. Existen estándares que se deben tener presentes, para implementar tecnología de vanguardia, que contribuya a la empresa. Software funcional: no basta con tener programas u aplicaciones, sino que realmente se adapten a las necesidades que tiene la empresa. Capacitación del personal en el área de las TIC: puede ser una barrera, ya que el personal debe adaptarse a la tecnología. La implementación se logrará cuando el conocimiento y habilidades en el recurso humano estén disponibles. La implementación de las TIC en las permitirá mejorar la competitividad de las empresas en los mercados internacionales., siempre y cuando se establezcan las políticas necesarias para la regulación de las mismas. Se lograrán mejoras en el marketing, las finanzas, la logística, la producción, los recursos humanos, entre otros [2]. Muy importante es destacar que la implementación de TIC en las no termina cuando se cuenta con infraestructura, software o personal capacitado, sino que se necesitará un presupuesto de parte de la empresa que apoye ésta estrategia innovadora, que brindará mejoras en muchos aspectos. III.

SITUACIÓN DE LAS PY

S EN PANAMÁ EN RELACIÓN AL USO DE LAS TIC

En un mundo tan cambiante en cuanto a TIC se refiere, las empresas que se mantienen a la vanguardia son aquellas que toman las mejores decisiones en el uso y aplicación de estás. Sin embargo, existen algunas barreras informacionales a las que se enfrentan las empresas, que pueden ser modificadas siempre y cuando se haga la adquisición adecuada de las mismas. A continuación mencionamos algunas de ellas [8]. Información limitada para localizar y analizar los mercados externos. Pese a que la información es vital para disminuir la incertidumbre del ambiente de negocios, muchas no están familiarizadas con

las fuentes de información nacional o internacional. En general, las oportunidades de negocios en el exterior se identifican de forma casual. Aun cuando tuvieran conocimiento sobre su existencia y pudieran acceder, se encuentran con dificultades para decodificar la información o no poseen una idea clara de la información específica requerida. Problemas con la data del mercado internacional. Se refiere a problemas en la fuente de información (emplean métodos de recolección de data poco sofisticados, factibles de ser manipulados o ideosincráticos); en la calidad (desactualizada o outdated, incompleta) y en la realización de comparaciones (diferencias en los años base, los sistemas de clasificación o en las unidades de medida). A lo que se agrega la necesidad de alcanzar la información a tiempo y las dificultades para pagar cierta información de alto precio. Falta de habilidad para contactarse con los clientes extranjeros. Esto puede atribuirse a las grandes distancias geográficas que separan a compradores y vendedores en los mercados externos; falta de compromiso o intromisión parcial de las empresas en la investigación de los mercados extranjeros. Por otro lado, según publicación del Foro Económico Mundial a través del sobre la Tecnología de la [1], Panamá ocupa la posición 46 de 144 economías a nivel mundial en el aprovechamiento en el uso de las TIC, siendo el primero a nivel de los países de Centroamérica y la segunda nación con avances considerables después de Chile, que destaca como el país más avanzado en la región ocupando la posición 34. El índice global evalúa la infraestructura de las TIC, como los costos de acceso y presencia de las destrezas y habilidades necesarias para asegurar un uso óptimo. Además, la incorporación y uso de las TIC entre gobiernos, empresas e individuos, el entorno comercial y de innovación, el marco político y reglamentario, así como el entorno de aprendizaje e innovación. Dentro de esta evaluación Panamá avanza de la posición 57 (2012) a la posición 46 (2013), lo que equivale a la mejora en 11 posiciones dentro de la medición que se realiza anualmente. Por su parte, buscando tener un panorama más puntual en cuanto al uso de las TIC en las , un grupo de estudiantes de la carrera de Ingeniería de Sistemas de Información desarrollaron una encuesta que fue aplicada a una muestra de 100 empresas, los resultados generados nos han permitido tener un panorama general de la situación actual de estas empresas en cuanto al uso de las TIC. Parte de los resultados obtenidos se muestran a continuación. En la figura 1 se puede apreciar el porcentaje de empresas encuestadas que cuentan actualmente con una infraestructura de TIC, de las cuales el 87% cuentan con una infraestructura y el 13% no.

CISTI 2015 | 103

mejora o inversión. De continuar en esta situación el país, las instituciones y la Universidad Tecnológica de Panamá perderán oportunidades, debido a que se generarán soluciones que no responden a los verdaderos problemas del país produciendo estancamiento o retrocesos en el desarrollo económico y social. Es por esto, que la creación del Observatorio Tecnologías de Información y Comunicación para Generación de Indicadores es necesario para aprovechar oportunidades que tenemos como país y como apoyo a desarrollo económico y social a través de las TIC.

de la las su

Partes interesadas: Empresas privadas, sector gobierno y UTP, como líder en educación superior. Figura 1. Empresas con infraestructura de TIC

B. Objetivo Establecer un Observatorio de Tecnologías de Información y Comunicación que nos permita crear indicadores sobre el uso de las TIC en las empresas. Estos indicadores permitirán tener un panorama más puntual y generar información y conocimiento sobre los procesos en curso, de forma de contribuir a su comprensión, explicar los cambios y aportar con información precisa y actualizada para el diseño, implementación, evaluación, acciones y políticas en el uso de las TIC.

Figura 2. Empresas con presencia de Internet

La presencia de Internet en las empresas encuestadas se puede apreciar en la figura 2, donde el 98% tienen presencia de Internet y solo el 2% no la tiene. IV.

PROPUESTA DE DESARROLLO DE INDICADORES

En esta sección presentamos la propuesta que se está desarrollando para el establecimiento de un Observatorio de Tecnologías de Información y Comunicación, que nos permita generar indicadores sobre la adquisición y uso de las TIC. Inicialmente el proyecto está enfocado en el sector de agroindustriales. A. Planteamiento del problema Como parte del acelerado crecimiento del país, las instituciones se encuentran resolviendo problemas con soluciones simples que eran aplicadas cuando los sistemas eran simples, sin embargo ahora los problemas son complejos y no se cuenta con sistemas de información que generen data confiable, pertinente y actualizada que les permitan tomar decisiones inteligentes. En Panamá, la información relevante para toma de decisiones se encuentra dispersa, no es confiable o no existe, lo que dificulta tomar mejores decisiones en cuanto a soluciones a problemas o a cualquier alternativa de

C. Avances Inicialmente se ha establecido el sector de las agroindustriales para levantar los indicadores sobre el uso de las TIC, para ello se han seleccionado todas las empresas agroindustriales de la provincia de Chiriquí para iniciar el estudio. Actualmente se esta desarrollando una aplicación para dispositivos móviles que nos permitirá realizar encuestas a las empresas selecionadas, en la figura 3 se puede observar una de las pantallas de la aplicación, donde se visulizan dos de las preguntas que se plantean en el cuestionario. Esta información será almacenada en una base de datos, la cual nos permitirá generar indicadores que posteriormente serán utilizados para: Generar conocimiento específico sobre las TIC en cuanto a su adquisición y uso. Crear sinergias de cooperación con empresas e instituciones. Generar conciencia de los beneficios de la adquisición y uso adecuado de las TIC en las empresas . Divulgar conocimiento a través de publicaciones, seminarios, asesorías, talleres y otras actividades de difusión. Por otro lado, se está adaptando la guía metodológica para el desarrollo de indicadores la metodología propuesta por CEPAL [6]. Esta guía presenta un conjunto de elementos técnicos para facilitar, orientar y realizar un eficaz desarrollo de iniciativas que tengan como fin la construcción y mantenimiento de un sistema de indicadores.

CISTI 2015 | 104

Figura 3. Pantalla de la aplicación con parte de la encuesta

I.

CONCLUSIONES

Durante la última década las TIC, en particular aquella soportada sobre Internet, ha modificado de manera profunda la vida moderna. El impacto de esta tecnología se detecta en una infinidad de actos cotidianos que van desde la compra de boletos aéreos a la interacción con el sector público (para obtener un certificado, participar en las compras públicas, que representan una cuota importante del Producto Interno Bruto (PIB), pagar impuestos), de la información médica al juego y a la comunicación entre personas: en fin el modus operandi de la sociedad moderna y de sus instituciones públicas y privadas se ve profundamente modificado. Sin embargo, a pesar de los beneficios percibidos en el uso de las TIC por parte de las , la falta de información objetiva sobre los beneficios que de ellas se puede obtener muchas veces obstaculiza la adquisición adecuada de las TIC. Por otro lado, aún se percibe como necesario impulsar la adopción de las infraestructuras TIC básicas en las , como paso previo al uso de herramientas más específicas que permitan lograr los niveles de productividad y competitividad necesarios. Como trabajo futuro inmediato es la aplicación de las encuestas para la generación de indicadores, posteriomente replicar el estudio en otro sector productivo del país.

AGRADECIMIENTOS

REFERENCIAS BIBLIOGRÁFICAS [1] [2]

[3] [4] [5] [6]

[7] [8]

B. Bilbao-Osorio et al. The Global Information Technology Report (2013) http://www3.weforum.org/docs/WEF_GITR_Report_2013.pdf F. Peirano; D. Suarez aprovechamiento de las TICs por parte de las de Argentina presentada en el 33 JAIIO, Simposio sobre la Sociedad de la Información, Córdoba, Argentina, setiembre 2004. L., Coté, & M., Vecina, (2005): The strategic management process in e-business. Ivey Business Journal Online, Núm. 1, p. 10. J., Owens, (2006): Electronic business: A business model can make the difference. Management Services, Núm. 50, p. 16-24. Análisis sectorial de implantación de las TIC en la pyme española. FUNDETEC y el ONTSI. Informe ePyme 2012. http://www.ipyme.org/Publicaciones/informe-epyme-2012.pdf R. Quiroga. Guía metodológica para desarrollar indicadores ambientales y de desarrollo sostenible en países de América Latina y el Caribe. Publicaciones de las de Naciones Unidas. ISSN versión impresa 1680-886. Santiago de Chile, 2009. M. Alderete. : un cambio de paradigma ma. . 10 Reunión Anual Red Mercosur. Neuquén, Septiembre 2005. M. Saavedra. Importancia de la utilización de las TIC en las mipyme. Revista Organización y Dirección. Enero, 2011. http://www.paginaspersonales.unam.mx/files/210/2012-01-12175431_PYMETICS.pdf

A la Secretaria Nacional de Ciencia, Tecnología e Innovación por el financiamiento de este proyecto.

CISTI 2015 | 105

Problema del Conjunto de Cobertura Resuelto Mediante el Algoritmo Binario de Optimización Basado en EnseñanzaAprendizaje The Set Covering Problem Solved by the Binary Teaching-learning-based Optimization Algorithm Broderick Crawford1,2,3, Ricardo Soto,1,4,7, Felipe Aballay Leiva1, Franklin Johnson1,5 y Fernando Paredes6 1

Pontificia Universidad Católica de Valparaíso, Valparaíso, Chile [email protected], [email protected], [email protected] 2 Universidad San Sebastián, Santiago, Chile 3 Universidad Central de Chile, Santiago, Chile 4 Universidad Autónoma de Chile, Santiago, Chile 5 Universidad de Playa Ancha, Valparaíso, Chile [email protected] 6 Universidad Diego Portales, Santiago, Chile [email protected] 7 Universidad Cientifica del Sur, Lima, Perú El Problema del conjunto de cobertura (SCP) es Resumen una representación de un problema de optimización combinatorial el cual ha sido aplicado en diversos problemas del mundo real. En este trabajo se utilizó la versión binaria del algoritmo binario de optimización basado en enseñanzaaprendizaje (Teaching-Learning-Based Optimization TLBO), el cual tiene dos fases conocidas como la fase de enseñanza y la fase de aprendizaje de esta forma emular el comportamiento dentro de una sala de clases, el problema es resuelto con ocho diferentes funciones de transferencia y cinco métodos de discretizacion los cuales en conjunto permiten resolver el Set Covering Problem de la librería OR. Palabras Clave Problema de conjunto de cobertura (SCP), algoritmo de optimización basado en enseñanzaaprendizaje (TLBO), Problema de optimización, Metaheurística. Abstract The Set Covering Problem (SCP) is a representation of a kind of combinatorial optimization problem which has been applied in several problems in the real world. In this work is used the binary version of TeachingLearning-Based Optimization algorithm (TLBO), which works with two phases known as teacher and learner phases in this way emulates the behaviour into a classroom, besides this problem is solved with eight different transfer functions and five discretization methods all of them altogether to solve The Set Covering Problem from the OR-Library. Set Covering Problem, Binary TeachingKeywords learning-based optimization algorithm (BTLBO), Optimization Problem, Metaheuristic.

I.

INTRODUCCIÓN

El problema de conjunto de cobertura (Set Covering Problem SCP en inglés) es un popular problema del tipo NP_hard [1] el cual se define a continuación: Sea , a matriz de ceros y unos, y

son el conjunto de las

filas y columnas respectivamente y un vector C entero no negativo n-dimensional. Teniendo para j , es el costo de escoger la j columna

de la matriz

A . Si

es igual a , se tiene

que la fila esta cubierta por la columna , en otro caso esto no se cumple. En el SCP, el objetivo es obtener un subconjunto de columnas de mínimo costo de la matriz A de las cual cada fila es cubierta por al menos una columna en el subconjunto S . Esta definición se formula matemáticamente como: (1)

(2) (3)

CISTI 2015 | 106

II.

ALGORITMO BINARIO TLBO

El algoritmo de optimización basado en la enseñanza y aprendizaje (TLBO) fue originalmente propuesto por Rao. La idea principal de TLBO es que el profesor es considerado como la persona con conocimientos en una clase en la cual el comparte sus conocimientos con los estudiantes para mejorar los resultados (es decir sus notas) de la clase. La calidad de los estudiantes es evaluada mediante el valor promedio de los estudiantes. Además los estudiantes pueden aprender mediante la interacción entre ellos mismos, lo cual ayuda en sus resultados. [2] TLBO es un método basado en la población. En este algoritmo de optimización un grupo de estudiantes es considerado como la población y las diferentes variables de diseño son consideradas como las asignaturas ofrecidas a los población la mejor solución es considerada como el profesor. TLBO es utilizado para resolver problemas como: problemas de optimización globales, problemas de optimización sin restricciones. El funcionamiento del TLBO explicada a continuación. III.

FASE DE ENSEÑANZA

La fase de enseñanza produce un rango de puntos aleatorios y ordenados llamados estudiantes dentro del espacio de búsqueda. Posteriormente un punto es considerado como el profesor, quien es la persona con mayores conocimientos y comparte sus conocimientos con los estudiantes, de esta forma los alumnos obtienen nuevos conocimientos del profesor. Esta es la primera parte del algoritmo donde el promedio de la clase se incrementa de MA a MB dependiendo de un buen profesor. En este punto, se asume que un buen profesor es quien conduce a sus estudiantes hasta su nivel en términos de conocimientos. Sin embargo, en la práctica esto no es posible y un profesor solo puede incrementar la media de la clase hasta cierto nivel dependiendo de las capacidades de los alumnos. Esto sigue un proceso aleatorio dependiendo de varios factores. [3] Siendo Mi la media y Ti el profesor en cualquier iteración i. Ti trata de mover la media Mi hacia su propio nivel, por lo que la nueva media será Ti designado como Mnew. La solución es actualizada de acuerdo a la diferencia entre la media existente y la nueva mediante Eq (3): DifferenceMeani = ri (Xnew

TFMi)

TF = round [1 + rand (0; 1) {2

1}]

(4)

Esta diferencia modifica la solución existente vía Eq (5) Xnew = Xold;i + DifferenceMeani IV.

(5)

FASE DE APRENDIZAJE

Esta es la segunda parte del algoritmo donde los estudiantes incrementan sus conocimientos mediante la interacción entre ellos mismos. Una solución interactúa aleatoriamente para aprender algo nuevo con otras soluciones en la población. De acuerdo a esto, una solución aprenderá nueva información si las otras soluciones tienen más conocimientos que esta. Matemáticamente el fenómeno de aprendizaje de esta fase se expresa mediante la Eq (6). Xd new = xdi + rand () (xdj xdi ), Xd new = xdi + rand () (xdi xdj),

If f (xi) > f (xj) If f (xi) < f (xj) (6)

En cualquier iteración i, considerando dos estudiantes diferentes xi y xj, donde . Por consiguiente, acepta x new, si este da un mejor valor de la función. Después de un número de ciclos secuenciales de enseñanza y aprendizaje, donde el profesor entrega conocimientos entre los estudiantes y estos aumentan su nivel hacia el de él. La distribución de aleatoriedad en el espacio de búsqueda se hace más y más pequeña hasta el punto de considerarse como un profesor. Esto significa que el nivel de conocimiento de toda la clase muestra igualdad y el algoritmo converge a una solución. Además un criterio de término puede ser que se alcanza un número máximo de iteraciones predeterminado. Considerando las dos fases descritas anteriormente, los pasos de la implementación del algoritmo TLBO se resumen a continuación: [4]

(3)

Donde T F es el factor de enseñanza que determina el valor de la media para ser cambiado y ri es un numero aleatorio en el rango [0,1]. El valor de TF puede ser 1 o 2, el cual es un paso heurístico y determina aleatoriamente con igual probabilidad vía Eq (4)

CISTI 2015 | 107

Paso 1: Definir el problema de optimización, inicializar los parámetros de optimización. Paso 2: Iniciar la población. Paso 3: Comenzar la fase de enseñanza done la actividad principal es que los estudiantes aprendan del profesor. Paso 4: Comenzar la fase de aprendizaje donde la actividad principal es que los estudiantes igualen sus conocimientos a través de la interacción entre ellos. Paso 5: Evaluar el criterio de termino. Finalizar el algoritmo cuando el número máximo de generación es alcanzado, de lo contrario retornar al paso 3 y el algoritmo continúa.

V.

OPERADOR DE REPARACIÓN

Las soluciones generadas pueden no ser factibles, porque algunas filas no son cubiertas, para resolver este problema se requiere hacer uso del operador de reparación de Beasley [5] para hacer las soluciones factibles. Para reparar las soluciones inviables, primero por cada solución se requiere identificar todas las filas no cubiertas y la suma de las columnas así todas las filas son cubiertas. La búsqueda de estas columnas faltantes se basa en la siguiente relación:

iii. Complemento

iv. Probabilidad Estática

Costo de una columna Numero de filas no cubiertas que estas cubren Una vez que todas las columnas esta cubiertas o si la solución es factible, se comienza a eliminar cualquier columna redundante. Una columna redundante es aquella que al ser eliminada la solución sigue siendo aún factible. VI.

FUNCIONES DE TRANSFERENCIA

Las funciones de Transferencia nos permiten trasladar el espacio de búsqueda continuo a un espacio de búsqueda binaria, posibilitando reemplazar junto a los métodos de Discretización un elemento de la solución desde 0 a 1 o viceversa [8], en este trabajo se han utilizado las funciones denominadas V-shaped o S-shaped, según la curva que representan. Tabla 1 Funciones de transferencia S-shape and V-shape S-Shape S1

V-Shape V1 j w

S2

d wj

V3

j w

S4

j w

V2

j w

S3

j w

j w

d wj 2

V4

j w

d wj 3

j w

j2 w j w

VII. MÉTODOS DE DISCRETIZACIÓN En este trabajo se han utilizado los siguientes métodos de Discretización. i.

Standard

ii.

Elitista

v.

Ruleta Elitista

El Método de Discretización Ruleta Elitista o Elitist Roulette en inglés, conocido también como Monte Carlo, consiste en la selección aleatoria entre los mejores estudiantes de la población, asignándole una probabilidad proporcional a su fitness para ser seleccionadas. VIII. RESULTADOS DE LAS PRUEBAS En la presente sección se presentaran los resultados experimentales. El algoritmo ejecuto 30 trials para cada instancia y luego se obtuvieron los valores promedio de estos 30 trials. EL algoritmo resolvió los 65 archivos de la librería OR, 45 de ellos son conjuntos de las instancias 4, 5, 6 originales de Balas y Ho [6], los conjuntos A, B, C, D de Beasley [7] y 20 de estos archivos son los conjuntos de problemas de prueba E, F, G, H de Beasley. El algoritmo TLBO binario fue implementado mediante el lenguaje de programación Java utilizando el IDE Eclipse en un computador con el siguiente hardware, procesador Intel i5-3230M 2.60 GHz, 4 GB de memoria RAM y se ejecutó bajo el sistema operativo Windows 7, los parámetros utilizados para la ejecución del algoritmo fueron 20 estudiantes y para cada trial se efectuaron 1000 iteraciones. Se resolvieron estos problemas utilizando ocho funciones de transferencia propuestas por Mirjalili. Las funciones de transferencia definen la probabilidad de cambio de un elemento de la solución de 1 a 0 o viceversa. Además de las funciones de transferencia, se utilizaron cinco métodos de discretización; Standard, Elitista, Complemento, Probabilidad estática, Ruleta elitista. Para cada conjunto de instancias fueron seleccionados los dos mejores resultados que son mostrados en Tabla 2. Tabla 2 Resultados del problema de conjunto de cobertura Instance OPT MIN MAX AVG RPD 4.1 429 430 431 430.6 0.23 % 4.4 494 501 508 504.3 1.42 % 5.4 242 244 246 245.6 0.83 %

CISTI 2015 | 108

5.7 6.2 6.4 A.1 A.5 B.3 B.5 C.1 C.5 D.1 D.4 NRE.1 NRE.5 NRF.2 NRF.4 NRG.2 NRG.4 NRH.2 NRH.5

293 146 131 253 236 80 72 227 215 60 62 29 28 15 14 151 168 63 55 IX.

293 148 131 257 239 80 72 235 220 62 65 30 30 17 16 164 180 67 60

299 157 134 258 241 100 78 235 220 62 68 30 30 18 18 168 184 67 61

297.0 152.50 132.30 257.7 240.10 91.40 74.20 235.0 220.0 62.00 66.8 30.0 30.0 17.8 17.80 166.40 181.60 67.0 60.6

0% 1.37 % 0% 1.58 % 1.27 % 0% 0% 3.52 % 2.33 % 3.33 % 4.84 % 3.45 % 7.14 % 13.33 % 14.29 % 6.49 % 7.14 % 6.35 % 9.09 %

CONCLUSIONES

En este trabajo se implementó el algoritmo TLBO binario para resolver el problema del conjunto de cobertura adicionalmente se utilizaron ocho funciones de transferencias y cinco métodos de discretización para ejecutar el algoritmo y se reportaron los resultados obtenidos para cada benchmark de la librería OR, en relación a las soluciones obtenidas se obtuvieron cuatro óptimos en instancias 5.7, 6.4, B.3 y B.5 algunos de los otros resultados se encuentran cercanos a valores óptimos, pero existen también algunos bastante lejanos como por ejemplo NRG.1 y C.3.

REFERENCIAS BIBLIOGRÁFICA [1]

M. R. Garey and D. S. Johnson. Computers and Intractability; A Guide to the Theory of NP-Completeness. W. H. Freeman & Co., New York, NY, USA, 1990.

[2] W.-J. G. Bo Xing. Innovative Computational Intelligence: A Rough Guide to 134 Clever Algorithms. Springer, 2014. [3] P. V. Rao, R. V. An improved teaching-learning-based optimization algorithm for solving unconstrained optimization problems. Scientia Iranica D, (20):710 720, 2013. [4] S. V. J. V. D. P. Rao, R. V. Teaching learning-based optimization: A novel method for constrained mechanical design optimization problems. Computer-Aided Design, (43):303315, 2011. [5] J. Beasley and P. Chu. A genetic algorithm for the set covering problem. European Journal of Operational Research, 94(2):392 404, 1996. [6] E. Balas and A. Ho. Set Covering Algorithms Using Cutting Planes, Heuristics, and Sub gradient Optimization: a Computational Study. In M. W. Padberg, editor, Combinatorial Optimization, volume 12 of Mathematical Programming Studies, pages 37 60. Elsevier NorthHolland, the Netherlands, 1980. [7]

J. E. Beasley. An algorithm for set covering problem. European Journal of Operational Research, 31(1):85 93, 1987.

[8]

S. Mirjalili and A. Lewis. S-shaped versus v-shaped transfer functions for binary particle swarm optimization. Swarm and Evolutionary Computation, 9:1 14, 2013.

En relación con los problemas pequeños (4, 5, 6, A, B, C, D) las mejores combinaciones fueron las funciones de transferencia S2 y S1 con los métodos discretos Estándar y Complemento. Además para los problemas grandes (NRE, NRF, NRG, NRH) las combinaciones que dieron mejores resultados son las funciones de transferencia V1 y V2 con los métodos de discretización Complemento y Elitista. Como trabajo futuro se tiene propuesto resolver las otras librerías SCP, como; problemas de asignación en los trenes de Italia, problemas de costo único, en aviones de American Airlines, entre otros. El algoritmo TLBO binario es simple requiere de pocos parámetros en su configuración y se obtuvieron relativamente bueno resultados, podría utilizarse para resolver otros problemas de tipo combinatorial. AGRADECIMIENTOS El autor Broderick Crawford es apoyado por CONICYT/ FONDECYT/REGULAR/1140897, Ricardo Soto es apoyado por CONICYT/FONDECYT/INICIACION/11130459 y Fernando Paredes es apoyado por CONICYT/FONDECYT/ REGULAR/ 1130455.

CISTI 2015 | 109

An Agile Strategy for Implementing CMMI Project Management Practices in Software Organizations Felipe Santana Furtado Soares UFPE/CIn Informatics Center Federal University of PE Recife Center of Advanced Studies and Systems Recife, Brazil [email protected] Abstract The transition from traditional methods to agile project management methods and the changes needed to obtain their real benefits are difficult to achieve. Applying agile methodologies based on maturity models such as Capability Maturity Model Integration (CMMI) has been the focus of much debate in academic circles and in the software industry. Given the high and widespread rate of failure in adopting agility, and also arising from many of the reasons given to project management, this paper proposes a strategy for implementing agile project management in companies which seek to comply with CMMI by making use of the best practices of Agile Project Management and of the main agile methods and frameworks in a gradual and disciplined manner thereby contributing to the increased success rate of software development projects. Keywords - project management; agile methodologies; maturity model; APM; CMMI.

I.

INTRODUCTION

One of the challenges of software organizations is to gain maturity in their development processes by implementing improvement projects based on the recommendations of globally recognized quality models such as Capability Maturity Model Integration (CMMI) [1]. At the same time, the Project Management Institute (PMI) [2] concluded in its annual report that to increase organizational agility, companies are aggressively reshaping their cultures and business practices in three ways: Embracing the management of change to adapt themselves better to the changing market; Focusing more collaboratively on risk management; Using project practices, programs and portfolios in a standardized way. The most up-to-date survey from Version One [3] shows that more companies are recognizing that agile development is beneficial to the business. There was an increase of 11% over the past two years in the number of people who responded that agile methods help organizations complete projects more quickly. The three reasons that most aided this increase are: ability to manage changes in priorities, productivity and visibility of the project. However, applying agile methodologies in organizations, the processes of which are based on maturity models such as CMMI [1], has been the focus of much controversy in the

UFPE/CIn

Silvio Romero de Lemos Meira

Informatics Center Federal University of PE Recife, Brazil [email protected]

academic world and in the software industry environment. The two approaches apparently display some different fundamental principles and bases, but on the other hand, adopting them together has become a reality for software organizations. Silva et al. [4] conducted a study to evaluate, synthesize, and present results on the use of CMMI in combination with the agile development of software. The method used was a systematic review of the literature [5] for studies published up to (and including) 2014. The search strategy identified 4,287 results, which included 94 studies on the use of CMMI together with agile methodologies. The benefits found were grouped into two main categories: those related to the organization in general and those related to the development process, and were organized into subcategories in accordance with the area to which they relate. The main conclusion of this study is that companies can use agile methodologies to reduce the efforts to reach CMMI levels 2 and 3 and there are moreover reports of applying agile practices that led to achieving level 5. Nevertheless, agile methodologies alone, according to the studies, were not sufficient to obtain a classification of a given level but rather additional practices must be resorted to, to do so. In this context, and given the high rate of failure in adopting agility in full, and also many of the reasons given to project management, this paper aims to answer the following question-problem: to increase the success rate of software development projects, is it possible to implement project management practices for companies seeking to adhere to CMMI by using a purely agile strategy in a gradual and disciplined way? To answer this question, this paper sets out a strategy that can guide software development organizations to set up agile project management based on the CMMI maturity model and making use of the best practices of Agile Project Management (APM) [6] and the main Agile Methods [3]: Scrum, Feature Driven Development (FDD), Lean, Kanban, Crystal, Extreme Programming (XP), in a disciplined and gradual way. II.

RESEARCH METHOD

The research methodology used to conduct this study was divided into two stages. The first step used the research instrument deemed an exploratory study, the main objectives of which were: (i) to validate that agile methodologies and maturity models can be used together; and (ii) that there is a need for software development organizations to use a strategy

CISTI 2015 | 110

for implementing agile project management. This step was accomplished by making use of the following research mechanisms: A Systematic Review of the Literature [5] on the joint use of agile methodologies and CMMI [4]; Field research, by means of interviews with companies that are using processes based on a process adhering to CMMI 3 and joint use with Scrum [6], XP [12] and Kanban [29]. The 2nd step is designed to validate the use of the full strategy by means of a survey based on expert opinion [13] and a case study in software development companies [14]. This step is in progress and the case study will be conducted by a Class A SCAMPI appraisal [1] in a CMMI level 3 company. III.

RELATED AND PRIOR WORK

According to Boehm and Turner [21], agile methods, practices and techniques for software development promises to increase customer satisfaction, and produce software with higher quality and a faster development time. Thus, several organizations who made a lot of effort to improve their processes based on CMMI, also believe that agile approaches can provide improvement increments [21, 22, 23]. Mark Paulk [24], the main author of the initial version of the SW-CMM [25], evaluated XP in relation to the 18 key process areas of the original SW-CMM. He concluded that XP partially or completely covers 10 of the 13 areas required to achieve level 3, and is no barrier to the other three. According to Anderson [29], the way to achieve greater agility with CMMI is to realize that the practices are primarily advisory or indicative, and that to correspond to a CMMI appraisal, an organization must demonstrate that the goals of a process area are being achieved through evidence of practice. Davis et al. [31] reported that, despite a major controversy between the compatibility of Agile Development Methods (ADM) and CMMI, they are not mutually exclusive. They complement this by explaining that there is a place for ADM in CMMI and, most importantly, those who have adopted CMMI can consider adding ADM to their processes. As analyzed by Furtado and Meira [28][20], Pinto and Furtado [18] and Marcal et al [16][17], when they technically evaluate maturity models and agile methodologies, it is important to note that the outlook between the two are not the same. While maturity models present an outlook of continuous improvement based on more abstract processes ("what should be done"), with a view to meeting objectives, agile methodologies are more focused on certain contexts and bring a higher level of detail on how to develop a software project ("how it should be done"). Table 1 lists related works to maturity models in the area of project management and of agile software development, as well as processes or methodologies involving project management and agility.

TABLE I. Title Agile Maturity Model: analysing agile maturity characteristics from the SPICE perspective [11] Agile Maturity Model: A Synopsis as a First Step to Synthesis [11] Scrum Maturity Model SMM [9] The development of a hybrid agile project management methodology [32]

Agile Maturity AM [33]

The Agile Maturity Model (AMM) [30] Agile Maturity Model - A Software Process Improvement framework for Agile Software Development Practices [26] SCRUMMI: An Agile Project Process based on Scrum and complient with CMMI [19]

Agile Process Maturity Model APMM [10]

Toward Maturity Model for XP [27]

CISTI 2015 | 111

RELATED WORKS Objective

The article does not explicitly its his own agile maturity model. It discusses the structure, content and quality of the agile maturity models currently available. The analysis in the paper shows that agile maturity models currently available are not suitable for industrial use. The article describes the current state of agile maturity models. It shows where these models can be found and that it contains a high level structured compilation of the agile maturity models currently available. The article describes an approach for analyzing these agile maturity models, extracts its contents, maps to a reference model and then synthesizes the real agile maturity problems. SMM is a model that offers a set of best practices to support the gradual adoption of Scrum based on levels of maturity that were designed according to the agile principles of the Scrum framework. The aim of this study was to demonstrate that a combination of agile methodologies for systems development and project management methodologies can be used to develop a hybrid methodology of agile project management with the ability to develop projects in an environment of constant change. AM is an agile maturity model developed by British Telecom Design, the IT division of the telecommunications provider. It has five levels of maturity and for each level there is an assessment of each of the seven dimensions: automation of regression tests, quality code metrics, automation of implementation, automation of configurations, interface and integration testing, test-driven development, tests of scalability and performance. The AMM proposed by Scott Ambler is a fivestage model that only provides guidelines for improving their effectiveness in agile software development. The levels are: rhetorical, certified, plausible, respectable and measured. The Agile Maturity Model (AMM) was established in the United Kingdom and is based on the values, principles and practices of agile software development. The model has five maturity levels (initial, exploited, defined, improved and sustained). This study analyzed the adherence of Scrum relative to CMMI in relation to project management processes and defined a process of agile project management, called Scrummi, constructed from extensions of Scrum so as to adhere to the areas of the CMMI project management process. The APMM is a two-dimensional model that strives to balance technical competence with the discipline for agile development. The model is structured from two perspectives: the technical axis indicates a level which involves predominantly technical and managerial practices and the management axis indicates a level involving management practices. This paper proposes a maturity model for XP (XPMM) with four process levels (not-compliant, initial, mature and advanced).

IV.

AN AGILE STRATEGY FOR IMPLEMENTING CMMI PROJECT MANAGEMENT PRACTICES

Level

As seen earlier, agility should not be regarded as lack of process. It is directly related to the ability to adapt to diverse and unexpected situations [6]. However, the transition initiatives to agile methods may fail because prescriptive processes are driven by an organization until the delivery of the improvement program as part of the initiative, then led by a process improvement group, an agile training group or an external consultant. The work groups seem to support the initiative, but actually they passively resist it because they believe that their unique situation does not fit into a standard process and the change is being forced on them, often without consultation or consensus [29]. In this scenario, the definition of an agile strategy can help companies implement project management practices in an organizational way that is more structured and mature. Table 2 presents the first step of this strategy, ie, it maps the concepts of each process area in a context of agile project management. All agile principles are preserved within this strategy. TABLE II. Level 1 Initial

MAPPING THE PROCESS AREAS FOR AN AGILE PROJECT MANAGEMENT STRATEGY Context Absence of agile methodology for project management.

There is an agile project management, but their processes are characterized by project.

2 Manage d

There are agile processes for planning and tracking the project, but the vision of the organization is by project, ie, there is no program management nor a project portfolio. The means of communication are not yet effective and clear to all the stakeholders involved.

3 Defined

The agile project management processes are well defined and characterized for the organization. There

Adapted Process Area

4 Quantita tively Manage d

5 Optimiz ed

Not applicable. Agile Project Planning (APP): to establish a schedule of activities with adaptive teams (self-organized and self-disciplined) so as to promote frequent learning and continuous delivery of value to the customer. Agile Project Monitoring (APM): to provide mechanisms based on agility, flexibility and on communication skills so as to give visibility of the progress of the project to all involved, so that obstacles can be anticipated or resolved throughout the project. Agile Change Management (ACM): to supply support to manage changes in the project so as to provide fast deliveries of value that will be better identified by the customer to the extent that he/she is made aware of the product being built starting from a process of discovery. And also to create mechanisms that provide autonomy to the team and the customer so that the product is constantly changing in ways that meets their real needs. Agile Management of the Supplier (AMS): to create clear mechanisms for agile planning and monitoring of the activities with subcontractors. Agile Organizational Project Management (AOM): to provide support so as to establish an organizational process that encompasses the management of the project and portfolio. Projects

Context is a standard process of management with well-defined criteria to instantiate them in each context of a new project and clearly programs and portfolios are managed. Communication is effective.

The processes are managed in a quantitative manner with a focus on agile metrics. The organizational processes of project management are often optimized with a focus on continuous improvement of the processes of agile project management.

Adapted Process Area should be managed, taking the effective involvement of relevant stakeholders into consideration in accordance with a defined and integrated process which is adapted starting with the set of standard processes of the organization. Agile Management of Risk (AMR): to identify, analyze, deal with, and monitor and reduce risk continuously at the organizational and project levels so that actions can be put into practice when necessary to mitigate undesirable impacts that adversely affect the achievement of the objectives of the project. Agile Quantative Project Management (AQM): using agile performance metrics to improve the process constantly based on cycles of inspection and adaptation. Lean Project Management (LPM): to use the principles of the Lean management of software development to provide mechanisms for continuous improvement in the processes of project management starting with the involvement of the entire team focused mainly on innovation, the elimination of waste and generating value.

Figures 1 and 2 illustrate the main relationships between the process areas in the proposed strategy. To facilitate understanding of the figures, they are divided into two parts connected through organizational vision of the project, risk management strategies, improvements in the process and elimination of waste. Table 3 shows an example of how the proposed strategy addressed the best agile practices with the expected results and typical work products of CMMI. This example refers to the Specific Goal SG1 (Estimating the Scope of the Project) of the PP (Project Planning) process area at maturity level 2. Altogether, this proposal has defined 84 ways to implement in an agile way practices of project management and 38 work products as part of the strategy for implementing agile project management for companies seeking to adhere to CMMI.

Figure 1. Main relationships between the basic process areas.

CISTI 2015 | 112

[2] [3] [4] [5] [6] [7] [8] Figure 2. Main relationships between the advanced process areas. TABLE III. Practices

The scope of the project is estimated from the vision of the product to be developed

EXAMPLE OF AGILE IMPLEMENTATION OF THE PRACTICES Agile Implementation of the Practice To define the vision of the product using the Product Vision Box or Elevator Test Statement [6] To define a high level design (architecture of the product) to facilitate exploration and guide product development [6], [15] To define the performance requirements relating to key operations of the product [6] To define the list of the features of the product [6] To define the product backlog [7] To define the FBS - Feature Breakdown Structure [8]

V.

Typical Work Products Form for project data [6]

Performance Card [6] Feature Cards [6] Product Backlog [7] FBS - Feature Breakdown Structure [8]

To guide companies who experience this scenario, this work put forward a strategy that supports in a gradual and disciplined way the setting up of agile management projects based on previously validated frameworks and methods and on their growing use by the software development community. According to the research methodology described in Section 2, there is evidence of the effectiveness of the proposed strategy based on gaps that were presented in the 94 studies undertaken by making a systematic review of the literature that served as inputs to this strategy, and by conducting field research in companies using maturity models and agile development projects. The next step will be to conclude a full validation of the proposed strategy based on the survey with experts and a case study which applies SCAMPI Class A in a CMMI level 3 company. REFERENCES 1.3.

Pittsburgh,

literature reviews in s EBSE (2007) Highsmith, J. Agile project management creating innovative products. EUA: AddisonWesley (2004) Schwaber, K. Agile project management with Scrum. EUA: Microsoft (2004) Palmer, S. R., Felsing, J. M. A practical guide to FDD. New Jersey: Prentice Hall (2002) Yin, A., et al. Scrum maturity model. The 6th ICSEA. Barcelona (2011) Oliveira, J. L., et al. Towards an agile process maturity model (2005) Schwweigert, T. et al. Agile Maturity Model: analysing agile maturity characteristics from the SPICE perspective. Journal of Software: Evolution and Process (2013) Beck, K. Extreme programming explained: embrace change. 2nd ed, Boston, MA, Addison-Wesley Professional (2005) Cooke, R. M. Experts in Uncertainty: Opinion and Subjective Probability in Science. Oxford University Press, USA (1991)

[14]

CONTRIBUTIONS AND FUTURE WORKS

SEI. CMMI for development, version www.sei.cmu.edu/reports/10tr033.pdf (2010)

[12] [13]

High Level Design [12]

Several studies have been conducted showing that is possible to live peacefully with agile and maturity approaches. If, on the one hand, while it is possible to add practices from the maturity model not considered in agile methodologies, on the other hand, agile values and principles should not be compromised.

[1]

[9] [10] [11]

PMI. Annual Report. Newtown Square, PA, http://www.pmi.org/ (2012) VersionOne. State of agile development survey results, http://www.versionone.com (2014) Silva, F. S., et al. Using CMMI together with agile software development: A systematic review. Elsevier Editorial System for Information and Software Technology (2014)

PA,

Publications (2001) [15] Shore, J.; Warden, S. The art of agile development. O'Reilly Media, CA, EUA (2008) [16] Marçal, A. et al. Mapping CMMI project management process areas to Scrum practices. 31st IEEE Software Engineering Workshop, USA, Baltimore, Washington, DC (2007) [17] Marçal, A. et al. Blending Scrum practices and CMMI project management process areas. Innovations in Systems and Software Engineering (Print), v. 4, pp. 17-29 (2008) [18] Pinto, A.; Furtado, F. Kanban in a CMMI ML3 environment. Lean Software and Systems Conference. California, USA. May (2011) [19] SCRUM e aderente ao CMMI. UNIFOR, Brazil, (2009) [20] Furtado, F. Meira, S. An agile maturity model for software development organizations. The 8th ICSEA, Venice, Italy (2013) [21] Boehm, B.; Turner, R. Balancing agility and discipline. EUA: AddisonWesley (2003) [22] Mcmahon, P. E. Extending agile methods: a distributed project and organizational improvement perspective. The Journal of Defense Software Engineering, vol. 18 (2005) [23] Boehm, B. Get ready for agile methods, with care. IEEE, v.35, (2002) [24] Paulk, M. XP from a CMM perspective. IEEE Software, Nov. (2001) [25] Paulk et al. The CMM: guidelines for improving the software process, Addison-W. (1999) [26] Patel, C.; Ramachandran, M. Agile Maturity Model (AMM): A Software Process Improvement framework for Agile Software Development Practices, IJSE Vol.2 (2009) [27] Nawrocki, J.; Walter, B.; Wojciechowski, A. Toward maturity model for XP. Euromicro Conference. Warsaw, Poland (2001) [28] Furtado, F. Meira, S. An Agile Project Management Maturity Model for Software Development Organizations, ICSEA, Nice, October (2014) [29] Anderson, D. Stretching Agile to fit CMMI Level 3. Agile Conference, Denver (2005) [30] Ambler, S. The Agile Maturity Model (AMM), Dr. Dobbs. Journal, http://drdobbs.com/architecture-and-design/224201005 (2010) [31] Davis, C. et al. An agile approach to achieving CMMI. http://www.agiletek.com/thoughtleadership/whitepapers (2007) [32] Grey, J. The Development of a Hybrid Agile Project Management Methodology. Potchefstroom, North-West (2011) [33] Benefield, R. Seven dimensions of agile maturity in the global enterprise: a case study. 43rd HICSS, Honolulu, IEEE (2010)

CISTI 2015 | 113

DISim: Ontology-driven Simulation of Biomedical Data Integration Tasks Pedro Sernadela, Artur Pereira DETI/IEETA, University of Aveiro Aveiro, Portugal {sernadela, artur}@ua.pt

Rosaldo Rossetti LIACC, University of Porto Porto, Portugal [email protected]

The continuous growth in quantity and diversity of Abstract life sciences data is triggering several bioinformatics challenges to be able to integrate and select desired information for later study. The majority of these data are scattered through independent systems disregarding interoperability features, which makes data integration processes not a trivial task. Consequently, several ETL (Extract-Transform-and-Load) frameworks have been developed to make data integrations tasks suitable for later exploration studies, providing better solutions for data heterogeneity, diversity and distribution. However, current advanced data integration tasks depend on large and heterogeneous data sources that must be modelled according to the source specifications and network conditions. Furthermore, these automated tasks are significantly dependent of sequential processes that dramatically increase the global request and processing time. Without estimation of the task completion time, the whole research workflow becomes even more challenging. This paper presents DISim, an ontology for data integration simulation, to estimate large and heterogeneous data integration jobs, in order to provide valuable outputs to enhance decisionmaking scenarios.

existing data types, structures and domains. Usually, data integration architectures follow a set of ETL (ExtractTransform-and-Load) procedures to make data integrations tasks suitable for later distribution. These tasks depict the core implementation of the developed system and typically require the combination of the computational system tool with related biologist models. However, even in notable state-of-the-art tools, the overwhelming scale and complexity of collected data and features consumes a lot of processing time and generates an information overload, making it impossible for researchers to grasp deep insights from available knowledge [2]. To deal with similar challenges, semantic data integration strategies have been developed enabling the mapping from relational connections to the semantic web graph. For instance, Bio2RDF [3] and COEUS [4] adopt advanced ETL techniques to process existing data into a semantic format, storing retrieved data in triple stores. Semantic web adoption within the life sciences community aims to provide better paradigms, standards and technologies to solve common problems in biomedical sciences, such as data heterogeneity, diversity or distribution.

Keywords - Biomedical data; ontology; data integration; modelling and simulation; acquisition time.

However, even with performance state-of-the-art data integration tools, researchers do not have the notion of how they can estimate the resources involved. Generally, researchers and developers are mainly focused on building those systems, in order to make data integration tasks discard any type of simulation according to the source requirements. Moreover, data integration processes are very dependent of external systems or databases, and estimating resources according to its specifications arises as an essential need. Acquisition time, processing time, and storage capacity needed are examples of valuable resources that can improve the overall research workflow and involved data integration tools. Additionally, sequential data integration tasks can exponentially increase the acquisition time, which can result in unexpected effects. For those reasons, modelling all these specifications will contribute to a more efficient and expectable data integration systems.

I.

INTRODUCTION

Many of the central problems in bioinformatics concern data retrieval and integration. Biological databases offer the opportunity to access a wide variety of biologically relevant knowledge, from reference sequences to marketed drugs, but they are typically geographically spread across multiple services with complex and heterogeneous data types [1]. To deal with resource heterogeneity issues or to simply centralize large amounts of distributed data in a single system, researchers have to develop state-of-the-art resource integration architectures. The main goal of any integration architecture is to support a unified set of features working over disparate and heterogeneous applications. Integration procedures are essential due to the large, and increasing, numbers of data resources in the biological scope. The actual state of the Web ecosystem makes it too easy to publish resources leading to a growing of many data types across communities and repositories. In most cases, databases offer their data through web services or flat files that can easily be accessed or parsed. However, these databases do not follow a single model or notation, and, therefore, the same biological concept may be represented in several distinct models and with various identifiers. The task of establishing relationships from one data type to other is often quite complex, due to the multitude of

This paper describes an ontology for modelling and simulating data integration processes. This ontology is called DISim, and has the goal to estimate the processes involved in data integration tasks in order to provide valuable outputs for research workflows. The idea of building such ontology stems from the necessity to create an extensible model that allows the adjustment of different behaviours to perform data integration tasks. With this ontology, researchers and developers can simulate their own data integration pipeline and gain useful

CISTI 2015 | 114

insights to enhance their workflow processes or data integration tools. The DISim ontology and related packages are currently available at https://bitbucket.org/sernadela/disim. II.

ONTOLOGIES IN SIMULATION MODELLING

Several different fields have created ontologies for their subdomains. For instance, biological sciences have formed extensive ontologies such Gene Ontology [5], which is currently a success. Ontologies development strategies can represent knowledge in a structured manner extracting the essential nature of concepts, its properties and relationships in any domain. Moreover, general ontology development processes rely on the accumulation of a wide range of domain ontologies and models reusing existing structured knowledge for multiple application situations. The popularity of ontologies provide similar benefits and opportunities for the modelling and simulation communities of interest. In particular, the use of similar ontology-driven strategies in modelling and simulation has recently emerged as a growing area of research interest. This is evidenced by the creation of the Discrete-event Modelling Ontology (DeMO) [6], the evaluation of the Command and Control Information Exchange Data Model (C2IEDM) as an interoperability enabling ontology [7] and its respective evolution JC3IEDM [8], the development of the Process Interaction Modelling Ontology for Discrete-event Simulations (PIMODES) [9], the development of the Component Simulation and Modelling Ontology (COSMO) [10], and the use of domain ontologies in agent-supported interoperability of simulations [11].

the Biomedical scope, the DISim ontology has been created, proposing a modular system to simulate data integration tasks. A. DISim: An Ontology for Data Integration Simulation The DISim ontology (Figure 1) is focused on modelling and simulating web integration tasks from heterogeneous resources. This ontology is simple and organized in 4 main levels. In the first level the top hierarchical entity (disim:Resource) that aggregate the different and heterogeneous resources endpoints is represented. In the second level, the data integration processes are subcategorized into two distinctive classes, because these processes are commonly achieved by querying a webservice (disim:Webservice) or a database (disim:Database). Although, the available ontology can be extensible to other resources, proving a more robust representation of the desired scenario. In the next level, each class shows several definitions connected by the object properties disim:output and disim:isOutputOf. These connections will allow the linkage between each different source. For a webservice instance, it can have several outputs formats including CSV, JSON, XML, etc. For database systems, SQL is the commonly used language to query and retrieve results. To describe each class, several ontologies are reused. Examples include the Dublin Core ontology (http://purl.org/dc/elements/1.1/) and the RDF Schema (http://www.w3.org/2000/01/rdf-schema#). However, the main properties of the simulation task are defined in the last level.

Generally, ontologies are mainly useful across the simulation modelling and analysis lifecycle, particularly in the problem analysis and conceptual model design phases [12]. According to Benjamin et al., ontologies can facilitate the simulation modelling process, including the simulation model development process: providing a mechanism to interpret and understand the problem descriptions, for instance, providing unambiguous interpretation of the problem or specialized terminology; harmonizing statements of objects that are described from multiple perspectives (e.g. explicit descriptions of the semantics of different terms and concepts); and unambiguously interpreting limiting constraints that need to be addressed in order to accomplish project goals. They also play an important role in modularity and integration simulation due to the increase of distributed intelligence strategies to simulation modelling (distributed simulation, federated simulation, agent based simulation, etc.). Additionally, ontologies are essential in facilitating simulation model interoperability, composition, and information exchange at the semantic level. III.

METHODS

Simulations imitate processes in certain domains. In order to achieve useful results, a simulation has to be based on a consistent ontology, which represents plausible specifications of the application concepts [13]. In this way, ontologies can be used for different purposes, namely to model and simulate the integration of information from different applications or domains. To be able to simulate data integration processes in

Figure 1. DISim ontology: Core model for data integration simulation tasks.

CISTI 2015 | 115

This is performed by simply creating owl:NamedIndividual instances. Each instance must derive from the upper classes definitions (e.g. disim:XML, disim:JSON, disim:SQL, etc.) through the rdf:type linkage. Moreover, each individual should be quantified according to exclusive data properties to be a representative entity of a simulation process. The individual data properties must include: disim:resquest simulate;

the number of requests (xsd:int) to

disim:connection location of the resource (xsd:string), e.g. URL location, database connection string, etc. Connections must contain the tag disim:sample Real samples to perform test queries (xsd:string) and respectively complete the connection endpoint. Additional properties: dc:title, dc:description, dc:date, etc. By adopting this model, individuals operate as simulation instances. Each individual can correspond to only one resource type. In this way, heterogeneous data integration simulations will correspond to a set of individuals, each one with the respective data source type and elements. Sample data items are useful to provide real insights over the simulation data. These items are defined with the purpose to be replaced in the connection string according to the replacer tag and provide testing functionalities. However, this model stills lacks in control sequential data integrations tasks. To fill that gap, an object property between depended individuals must be endorsed. For instance, if the process of individual X must wait for the process of individual Y to start, the object property X dsim:isDependentOf Y must be asserted. This property will be responsible to formulate the dependency graph of sequential data integrations processes. IV.

RESULTS

To validate the DISim ontology, an example case study was built to test and verify the capabilities of the DISim model. This case study will operate as supporting decision system for a data integration task and will be described and discussed in the following sections. A. Exploring DISim ontology

public database by GO identifier. In sum, this can be simple modelling in three main components: 1.

Get all articles titles by Uniprot ID from Uniprot DB;

2.

Get all HGNC IDs and GO IDs by Uniprot ID from COEUS Triple Store;

3.

Get all terms name and type by GO IDs from GO DB.

Following those three activities, the named indiv simulations instances must be created according to the DISim ontology to support the mentioned integration pipeline. To create these instances it was used the Protégé ontology editor (http://protege.stanford.edu). In the first instance sim_uniprot_xml is defined the simulation of querying the Uniprot DB in order to retrieve the results in the XML format. To perform the queries and get the estimations the simulation instance is based on the samples defined (disim:sample) and the connection string (disim:connection). The disim:request data property defines the number of request to simulate. In the next two simulations the structure is the same, but adjusted to the service type (e.g. SQL, JSON, XML, etc). For instance, in the sim_coeus_json individual, the connection type must be a valid SPARQL query. For the sim_go_sql, a valid SQL query must be defined. Moreover, the data integration sequential tasks must be defined through the disim:isDependentOf object property. As its need to query first the Uniprot DB to retrieve the IDs to be able to query COEUS triplestore we defined that sim_coeus_json isDependentOf sim_uniprot_xml. For the same reasons, the sim_go_sql isDependentOf sim_coeus_json rule must also be defined. Figure 2 displays a better visualization of B. Exploring Simulation Results After the definition of the individual instances it has been created an application prototype to validate the corresponding ontology. This application processes the DISim ontology and respective individual instances to simulate the requests defined. The application uses Apache Jena (jena.apache.org) to deal with the ontology features and the Apache Commons Mathematics Library (commons.apache.org) to generate random numbers distributions. Essentially, the application consumes the DISim ontology and generates simulations according to the real samples provided. The samples work as precision scale, i.e. as more samples are used, more precision the system has.

consider a following simple scenario, in which a researcher needs to integrate data from several heterogeneous resources. First, he wants to query the Uniprot database (uniprot.org) to retrieve by accession identifier (e.g. P01008) Cloning and expression of the cDNA for human antithrombin III. with his research. After this process, he wants to query an external SPARQL endpoint to retrieve the Gene Ontology (GO) identifiers (e.g. GO:0005615) and the HUGO Gene Nomenclature Committee (HGNC) unique identifier (e.g. HGNC:775) related to all previously integrated Uniprot accession identifiers. Finally, he wants to retrieve the term name (e.g. cellular_component) and type (e.g. cellular_component) from the Gene Ontology (GO)

CISTI 2015 | 116

Figure 2. Simulation pipeline and respective dependencies.

To provide the simulations results the application only deals with two measures. The first is the storage estimation. It provides storage estimation according to the default random numbers data generation process based on the samples size. The second is the request time estimation. It provides time estimation based on a particular Gaussian distribution (1) with and based on the sample requests information and with .

With the adoption of a Gaussian distribution the majority of the request times generated are well approximated to the real samples times. Additionally, it also contains some outliers that will be generated by the distribution function to simulate network variations. Running the application with the simulations instances previously defined will generate outputs for each data type connector created. estimation and respective storage estimation. To exemplify, the Table 1 contains 5 simulations attempts for the previously defined scenario with 500.000 requests for each data type. The values were generated with a 2s interval between each simulation. In each interaction, the samples (only 3 samples are used for each data type) are queried and the respective results saved to build the estimation values. A large distribution can be introduced due to the usage of different samples information in the calculation of the estimation times/storage. In reality, this TABLE I. SIMULATION OF 500.000 REQUESTS FOR EACH DATA TYPE CONNECTOR Simulation XML (1º) JSON (2º) SQL (3º) Total nº Request Times Estimation (hours, minutes and seconds) 1 2 3 4 5

60h 34m 44s 42h 21m 32s 45h 00m 12s 38h 58m 48s 41h 00m 49s

1 2 3 4 5

780684413 780782943 780149145 780261769 438500362

11h 39m 37s 08h 14m 31s 07h 43m 53s 07h 41m 08s 09h 29m 31s

11h 09m 03s 12h 16m 02s 15h 09m 15s 14h 01m 33s 11h 14m 52s

83h 23m 25s 62h 52m 06s 67h 53m 21s 60h 41m 30s 61h 45m 13s

large data integration tasks was described. This ontology aims to enhance the modeling of the different and heterogeneous types of data currently available in common Biomedical services and provide valuable insights such as storage or processing time needed for large integration jobs. With the DISim ontology, researches can estimate and predict integration tasks based on sample data provided. Those estimations could improve research workflows and serve as a baseline system to model heterogeneous data integration jobs. To validate DISim ontology, an application prototype was built to demonstrate all features contained in the modeled system. Regarding future work, we intend to extend the produced system to fully interact with some databases requirements (for instance, Uniprot limits large request jobs to a certain period of time). Additionally, we aim to perform a comparative study to analyze the performance of our system vs a real data integration tool. ACKNOWLEDGMENT The research leading to these results has received funding from the European Community (FP7/2007-2013) under ref. no. 305444 the RD-Connect project. Pedro Sernadela is funded by Fundação para a Ciência e Tecnologia (FCT) under the grant agreement SFRH/BD/52484/2014. REFERENCES [1] [2]

J. Biomed. Inform., vol. 41, no. 5, pp. 687 93, Oct. 2008. G. H. Fernald, E. Capriotti, R. Daneshjou, K. J. Karczewski, and R.

[3]

Bioinformatics, vol. 27, no. 13, pp. 1741 8, Jul. 2011. F. Belleau, M.-A. Nolin, N. Tourigny, P. Rigault, and J. Morissette,

[4] [5]

Storage Estimation (bytes) 154999911 154999192 155000558 154999075 154999895

54507203 36745448 75728236 40000972 73992004

990191527 972527583 1010877939 975261816 667492261

type of results can also happen due to the network abnormalities. The inclusion of these five different simulations has the goal to provide similar outputs and also to demonstrate that results can change over the time. Looking at the total request times, the values are mainly located between 60-67 hours (almost 3 days). The XML queries to Uniprot DB are taking longer that the remaining tasks, which are expected due to the larger file size. V.

CONCLUSIONS

[6] [7] [8] [9] [10] [11] [12]

In the modelling and simulation (M&S) domain, ontologies are extremely important in the problem analysis and conceptual model design phases. In this paper, an ontology for simulating

[13]

J. Biomed. Inform., vol. 41, no. 5, pp. 706 16, Oct. 2008. J. Biomed. Semantics, vol. 3, no. 1, p. 11, Jan. 2012. M. Ashburner, C. A. Ball, J. A. Blake, D. Botstein, H. Butler, J. M. Cherry, A. P. Davis, K. Dolinski, S. S. Dwight, J. T. Eppig, M. A. Harris, D. P. Hill, L. Issel-Tarver, A. Kasarskis, S. Lewis, J. C. Matese, J. E. Richardson, M. Ringwald, G. M. Rubin, and G. May 2000.

Nat. Genet., vol. 25, no. 1, pp. 25 9, Simulation, 2011.

discreteInteroperabilityInteroperability Work., 2005.

Proc. Fall Simul. -

OWLED, 2009.

Interaction Models using the Web Ontology Language2006. 2008. 41st Annu. IEEE, 2008.

Simul. Symp. 2008. ANSS

-level framework for agentJ. Def. Model. Simul. Appl. Methodol. Technol. 2.3, pp. 161 175, 2005. P. Benjamin, M. Patki, and R. M 38th Conf. Winter Simul., 2006. Spat. Cogn. Comput., 2004.

CISTI 2015 | 117

Implementação de Metadados como Ontologia Base estrutural de inteligência empresarial

Metadata implementation as Ontology Structure of enterprise intelligence Francisco Santana Guimarães Universidade de Évora, Departamento Informática Évora, Portugal [email protected]

Paulo Quaresma Universidade de Évora, Departamento de Informática Évora, Portugal [email protected]

Carlos Pampulim Caldeira Universidade de Évora, Departamento de Informática Évora, Portugal [email protected] Resumo Metadados e ontologias partilham o objetivo de integração de estrutura e semântica de conceitos para uma melhor exploração da informação em domínios gerais ou específicos. Este artigo, foca o conceito de metadados utilizados no domínio específico de sistemas de BI, para enquadrar o papel das ontologias e processamento de linguagem natural como base para criação e exploração de metadados em Data Lineage e Data Discovery. Palavras Chave BI; Metadados; Ontologia; Web Semântica; NER; Data Lineage; Data Discovery; Data Governance; NLP. Abstract Metadata and ontology share the same objective about a common and integrated repository of data structure and semantic to provide a better information discovery in general or specific domains. This article focus on metadata in BI domain to propose the usage of ontologies and natural language processing to create and explore metadata in data lineage and data discovery. Keywords BI ; Metadata; Ontology; Semantic Web; NER; Data Lineage; Data Discovery; Data Governance; NLP.

I.

INTRODUÇÃO

Os sistemas de informação existem num determinado contexto organizacional, sendo que a arquitetura da organização é uma estrutura singular que se deve adaptar a uma realidade para se representar num modelo de dados. Como tal, todas as organizações moldam de uma forma peculiar os conceitos que transitam nos seus sistemas de informação como forma de captura desta realidade [1]. Estes conceitos, correspondem à representação de um objeto ou acontecimento que entra na composição de um sistema [1]. Daí a importância de entender estes conceitos, designados por metadados, sendo que existem vários tipos de sistemas como parte deste conjunto designado por sistemas de informação onde estes metadados são necessários. No contexto de sistemas de informação, os sistemas de Business Intelligence (BI) consolidam e agregam

informação para estruturar conhecimento para tomada de decisão, sendo normalmente designados por sistemas informacionais em contrapartida dos sistemas transacionais (e.g. ERP, CRM) que são designados por sistemas operacionais. Estes sistemas tentam responder a questões que analisar quantidades, valores clientes segmento, região ano 2014 e distrito Évora Destas expressões, nota-se a necessidade de questionar factos mensuráveis (quantidades, valores) em determinados domínios (clientes) por dimensões de análise (segmento, região) e restrições ou filtros específicos (ano 2014 e distrito Évora). Por outro lado, as fontes de dados têm descrições associadas a tabelas e campos, que permitem identificar os factos (e.g. valor a considerar por contrato de clientes, critério de contagem de quantidade de clientes) e dimensões de análise (e.g. segmento do cliente, regiões definidas para atividades de clientes). Considerando que estes sistemas informacionais dependem de dados criados pelos sistemas operacionais e de fontes de dados externos, torna-se necessária uma correlação de conceitos, para permitir uma visão única a partir de várias fontes de dados. Para garantir este alinhamento, estes sistemas dependem de uma das suas componentes, designada por metadados, que assume assim um papel crítico em sistemas de BI. Os metadados permitem a descrição semântica integrada de várias fontes de dados [2]. Estas descrições são a base para pesquisa, localização e entrega de informação de forma automática. Para a sua implementação, as ontologias têm emergido como infraestrutura de representação deste conhecimento enquanto base de conceitos como a Web Semântica, sendo que esta combinação entre metadados e ontologia definem uma nova abordagem multidisciplinar para a engenharia da informação [2]. Nesta perspetiva existem propostas com modelos de interface de linguagem natural baseado em ontologia para geração de queries OLAP de pesquisas sobre modelos multidimensionais [3], comparando com vários sistemas equivalentes, mas sem recorrer a

CISTI 2015 | 118

metadados. Noutra perspetiva, utilizam-se ontologias como base para sistemas de metadados a partir de estruturas de dados [4], [5] e [6], mas sem a componente de linguagem natural e exploração de Data Lineage na interpretação da relação entre os conceitos assim organizados sobre a forma de ontologia. Este artigo tem por objetivo apresentar o domínio de problema ao nível de sistemas de BI na sua componente de metadados, para abordar alternativas de implementação via ontologias, inferência e sistemas de processamento de língua natural, propondo um modelo e discorrendo sobre algumas conclusões preliminares de testes efetuados no contexto da investigação em curso. Como tal, na seção II apresenta-se os sistemas de BI, na seção III caraterizam-se os metadados, na seção IV apresenta-se o papel das ontologias, inferência e língua natural como solução potencial, para na seção V se discorrer sobre o modelo em investigação. II.

BUSINESS INTELLIGENCE (BI)

Os sistemas BI tem por objetivo a captura, entendimento, analise e transformação dos maiores ativos de uma organização, os dados, em informação que permite otimizar o desempenho [7],[8],[9] e [10], utilizando-se várias componentes de arquitetura como apresentados na figura 1.

Figura 1. Componentes de sistema BI [10]

Estes sistemas capturam dados em bruto de várias fontes, internas e externas, com vários formatos, com periodicidades de produção diferentes e com sistemas de produção destes dados que foram implementados em várias fases do tempo. Este processo recorre a ferramentas específicas que podem ser ETCL (Extraction, Transform, Cleasing and Load) ou Data Replication, no que é conhecido como processos de Data Integration. Um dos aspetos nestes processos são as regras and Cleasing problema de alinhamento de conceitos e regras de transformação de dados em informação, focando em conceitos de métricas ou fatos (o que se pretendo analisar) e dimensões (em que perspetivas e detalhe/hierarquia quero analisar as métricas). As métricas correspondem medidas de desempenho de acordo com os eventos de processos de negócio, sendo que as dimensões representam o contexto em que os eventos se processam, permitindo várias perspetivas de análise dos mesmos [9]. Esquematicamente, as métricas e dimensões são representados em modelos do tipo estrela ou snow flake, mas sempre focando nestes dois conceitos, tal como apresentado na figura 2.

Figura 2. Modelação de dados em estrela [9]

Face às várias fontes com formatos diferentes, estes sistemas armazenam em bases de dados próprias os dados assim transformados, no que é designado por Operational Data Store (visão operacional das fontes), DataWareHouse (visão com resolução de alinhamento de conceitos) e Data Mart (visão agregada para exploração por áreas de negócio como por exemplo, rentabilidade, vendas, custos, eficiência, liquidez). Nestas bases de dados, os conceitos de métricas e dimensões, em modelos do tipo estrela ou snow flake [9], são uma tipologia de organização de dados normalizada, nomeadamente ao nível de Data Mart.Uma vez os dados organizados em informação pronta para exploração, recorre-se a vários tipos de ferramentas analíticas para permitir aos utilizadores finais aceder aos mesmos. Estas ferramentas podem ser Dashboard & Scorecard, Reporting, Predictive Analytics, Data Discovery & Self-Service. Para carregar estes modelos, os processos de transformação relacionam informação na origem e transformam-na para os modelos destino, sendo que nesta transformação aplicam-se regras de negócio que ficam expostas na exploração da informação final. Estas transformações e estruturas de dados são descritas e residem em modelos de metadados. Com base nestes modelos utiliza-se Data Lineage para entendimento destas transformações, isto é, da semântica que é expressa via as transformações. Data Lineage é assim um processo que permite descrever de onde os dados vêm, como são transformados e quando são processados [11]. Pode-se considerar igualmente nesta definição a necessidade de mostrar como estão estruturados e qual o seu significado, considerando a sua estrutura e semântica para melhor entendimento dos mesmos e sua exploração em processos de Data Discovery.Por esta razão, focamos os metadados em BI como problema para encontrar soluções via representação de conhecimento por ontologias como base para processamento de língua natural e inferência no domínio de Ontology Learning, Data Lineage e Data Discovery. III.

METADADOS

Metadados corresponde ao conceito de dados sobre dados, enquanto informação estruturada que descreve, explica e localiza os recursos de informação. É o conhecimento existente em aplicações ou em colaboradores, que representam aspetos internos ou externos à organização, incluindo informação sobre processos de negócio, regras e estruturas de dados [10]. Estas definições assentam na estrutura de informação sobre os dados existentes, para permitir gerir e partilhar a informação, não focando no entanto na semântica dos dados. Por isso, outros autores referem que os metadados capturam a semântica de dados residentes em várias fontes para integração num sistema de informação empresarial [12].

CISTI 2015 | 119

Os metadados podem ser classificados como técnicos e de negócio, [10] e [12], com as seguintes especificidades: Técnicos: Informação sobre as estruturas de dados (e.g. tabelas, relações, campos, domínios de valores e formatos) e transformações (e.g. regras de mapeamento entre tabelas/campos origem e tabelas/campos destino); Negócio: Descrições sobre tabelas, campos, regras, relatórios, dimensões e métricas. Esta informação depende de conhecimento em domínios como setores de atividade (e.g. conta em bancos, apólice em seguros, pode ser sobre negócio em sectores de atividade, produto em banca ou ramo em seguros). De considerar ainda os metadados de Data Lineage (ciclo de vida e relação entre origem e utilização de dados) e Data Usage (como e com que objetivo os dados serão utilizados) [12]. Os metadados são carregados a partir de várias fontes tais como ferramentas de gestão de bases de dados, ferramentas de Data Integration, modelação de dados, Reporting & Dashboard, Data Quality e a partir de documentos diversos (e.g glossários, processos) [10].Pelo facto de ser necessário integrar várias fontes, existem vários standards para permitir a partilha e interoperabilidade. Tal é o caso do IMM (Information Management Metamodel) como evolução do CWM (Common Warehouse Metamodel da OMG) e o Dublin Core Metadata Initiative, além do padrão XMI (XML Metadata Interchange). Apesar da importância dos metadados, não existem standards reutilizados por várias ferramentas. No entanto os standard existentes incluem não só as notações para modelação e troca de informação entre si, mas também vocabulários e ontologia específica de conhecimento [12]. Este alinhamento entre metadados e ontologia com aplicabilidade em BI é utilizado em várias investigações de metadados como ontolologia, [4], [5] e [6], [13], mas sem a incorporação de linguagem natural para interpretação da base do BI (as métricas e dimensões) e sem aplicação de Data Lineage sobre ontologias. Em termos de ferramentas comerciais, considerando o Gartner Magic Quadrant for Data Integration Tools e Data Quality Tools , somente a ferramenta SAS [14] apresenta uma solução de ontologias, mas separada das soluções de metadados. Neste contexto, focamo-nos na criação de metadados utilizando ontologias de domínio, por sector de atividade, capturando as estruturas e as regras inerentes aos dados em BI. IV.

formal de conceitos num domínio de discurso, propriedades de cada conceito (relações e atributos) e restrições sobre as propriedades [17]. Os componentes básicos de uma ontologia são as classes (Conceitos), Relações (interação entre as classes), funções (relação onde o último elemento da relação, pode ser visto como um elemento determinístico face aos elementos precedentes), axioma (significado e restrições, que permitem modelar expressões sempre verdadeiras) e instâncias (elementos específicos) [18]. As ontologias permitem criar um modelo semântico de metadados baseado em tripletos de objeto-relação-objeto, sobre o qual é possível utilizar motores de inferência num domínio. No entanto, a sua criação manual é morosa e complexa, sendo necessário recorrer a conceitos de Ontology Learning [19] para semiautomatização. Para o efeito utilizam-se ferramentas de modelação com representação em linguagens como OWL (Web Ontology Language), para que a partir de uma ontologia setorial base se possa ajustar as particularidades de cada organização. Por outro lado, a exploração de ontologias depende de mecanismos de interpretação de conceitos, recorrendo a linguagem natural para análise morfológica e sintática das frases, que permitem identificar os conceitos (no nosso caso, as métricas, dimensões, domínios e restrições), suportada em inferência sobre a ontologia. As ontologias são assim um solução adequada para Data Discovery e Data Lineage com escalabilidade de relação de metadados de várias fontes, formatos e modelações utilizando o conceito de Ontology Learning para suporte à criação. V.

INVESTIGAÇÃO EM CURSO

A nossa investigação analisa o papel das ontologias, inferência e processamento de língua natural aplicada a metadados em BI. O objetivo é capturar estruturas (tabelas, campos, processos, relatórios), relações e atributos (caracterizações de cada conceito base com as especificidades de áreas temáticas e setores de atividade). Este modelo com conceito inicial mais alargado [20] foi revisto de acordo com o apresentado na figura 3 para permitir testar inferência em Data Lineage e Data Discovery sobre metadados. SQL DDL

Glossário

UML AE

ETL

Reporting

XMI

Java, Jena, OpenNLP, SPARQL

Protege

ONTOLOGIAS E LINGUAGEM NATURAL

A ontologia é a especificação formal ou definição conceptual de ideias, conceitos, relações e outras abstrações no contexto de um domínio ou discurso [15]. Como tal, é um vocabulário para utilização na linguagem, nesse domínio, permitindo a comunicação e reutilização. A formalização torna-se fundamental no domínio da computação, pois permite legibilidade pelas máquinas [15]. O conceito de ontologias permite descrever vários tipos de artefactos, incluindo taxonomias e esquemas de metadados, como os que são utilizados no standard Dublin Core Metadata Initiative (DCMI) [16]. Este conceito, permite a descrição explícita e

DCM IMM

OWL-SWRL

Java, Jena, OpenNLP, SPARQL

Figura 3. Modelo em implementação em evolução do conceito [20]

O sistema considera uma componente de carregamento semiautomático da ontologia (utilizando Jena, Pellet, OpenNLP e SPARQL) consolidando várias fontes, para complemento manual em Protege e uma componente de exploração do modelo como apresentado na figura 4. Para a sua concetualização, foram analisados sistemas de BI, em sectores

CISTI 2015 | 120

de atividade diferentes (banca, corretagem e infraestrutura de água e energia) para identificar utilização de metadados em BI, padrões de descrições de conceitos e tipo de linguagem de exploração de ontologia como metadados. Nesta primeira fase, a investigação centrou-se na análise morfológica e sintática do tipo de expressões utilizadas na caracterização de conceitos, como sejam tabelas, campos e relatórios, além do tipo de expressões utilizadas na definição de necessidades com as seguintes conclusões. Ao nível de conceitos, os nomes correspondem a classes, os adjetivos a atributos e os verbos são relações entre classes ou para indicar a lista de morada, telefone, em que o cliente é classe e a morada e telefone são atributos, com a particularidade de um cliente poder ter várias moradas, sendo que a morada passa a ser um conceito estando implícita a relação entre os conceitos na frase. Ao nível de expressões, padronizou-se a estrutura domínios de análiselista de dimensões lista de condições R quantidade, valor DE clientes POR segmento, região PARA ano 2014 e Esta análise permitiu implementar e testar o modelo de ontologia, com base na interface na figura 4 com interrogações sobre métricas, dimensões, domínios e restrições.

ontologias como área potencial de solução. É apresentado o modelo em implementação, com a justificação da sua adequação ao problema face à análise de casos de estudo, focando na conjugação entre especificações e ferramentas OWL, SPARQL, OpenNLP, Jena, Pellet e Protege para teste de análise preliminar de expressões utilizadas no domínio de BI. São apresentados por fim os próximos passos para desenvolvimento do protótipo e teste nos casos de estudo para melhor aferição sobre a adequação de ontologias e inferência em metadados, Data Lineage, Data Discovery e Ontology Learning. AGRADECIMENTOS Esta investigação está a ser efetuada com recurso a casos de estudo da EDIA e da FINCOR para análise da sua arquitetura de informação de gestão e teste do protótipo em desenvolvimento. REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3] [4] [5]

CONTECSI International Conference on Information System and Technology Management, Sáo Paulo, 2019. Sicilia, Miguel-Ángel, Ontologies, Vol.1, No.1, 2006. Saias, José, Quaresma, Paulo, Salgueiro, Pedro e Sa An Ontology-Based Natural Language Interface for Multidimensional . Chowdhury, Tameen e nacional Conference on Advances in Semantic Processing, 2013. Singh, Shekhar

[8]

Computer Applications (0975-8887), Vol.61, N.14, January 2013. Cao, Longbing, Zhang, Chengqi e -Based , 2006. Azvine, B., Cui, Z. e -Time Business -225, 2005. Immon W. H. e

[9]

Kimbal, Ralph, e

[6] [7]

& Sons, ISBN:978-1-118-53080-1, 2013. [10] Marco [11] Ikeda, Robert e Widom, J Report, Stanford University, 2009. [12] Technology, Vol.4, No.2, March-April 2005. [13] Tirmizi, Syed Hamid, Sequeda, Juan e Figura 4. Protótipo desenvolvido

O sistema vai ser enriquecido com regras de transformação/cálculo via OWL-SWRL e processos Data Lineage e Data Discovery sobre o modelo assim consolidado. VI.

CONCLUSÕES

Este artigo, aborda temas multidisciplinares de ontologias e metadados para resolver problemas de Data Lineage e Data Discovery e semiautomatização de criação de ontologias via Ontology Learning. Para tal, descreve-se o domínio de BI e metadados como contexto de investigação, e o domínio das

Technical

[14] SAS Ontology Management, disponível em http://www.sas.com/en_us/software/analytics/ontologymanagement.html, último acesso 17/02/2015. [15] . [16] Heflin, Jeff. OWL Web Ontology Language: Use cases and requirements. W3C Recommendations 2003. [17] Noy, Natalya e Ontology Development 101: A Guide to Creating Your First Ontology'', Stanford Knowledge Systems Laboratory Technical Report KSL-01-05 and Stanford Medical Informatics Technical Report SMI-2001-0880, 2001. [18] Corcho, O, Fernandez-Lopes, M e Gomez-Perez, A. Methodologies, Tools and Languages for Buidling Ontologies. Where is their meeting

CISTI 2015 | 121

point? Data & Knowledge Engineering. , Data & Knowledge Engineering 46 (2003) 41 64,2003. [19] Hazman, Maryam, El-Beltagy, Samhaa R.e

[20] Guimaraes, Francisco, Caldeira, Carlos e Quare Inteligência empresarial suportada em metadados vista como ontologia organizacional 4as Jornadas de Informática da Universidade de Évora JIUE2014, 2014

Applications, 2011

CISTI 2015 | 122

Sistema Multimedia para Niños con Discapacidad Auditiva Multimedia System For Children With Hearing Disability Diego Leonardo Heredia

Manuel Perez Cota

Universidad Nacional de Catamarca Facultad de Tecnología y Ciencias Aplicadas San Fernando del Valle de Catamarca, Argentina [email protected]

Universidad de Vigo Rúa Torrecedeira, Pontevedra, España [email protected]

La educación en el desarrollo de toda persona es Resumo indispensable, ya que mejora la participación en la vida social, cultural y política de la sociedad. Es fundamental que la educación se apoye en ciencias como la informática, la pedagogía y la comunicación, permitiendo reforzar el proceso de enseñanza y aprendizaje procurando ser más atractivo, entretenido y dinámico. El objetivo del trabajo es mostrar la investigación y diseño que permita aumentar la motivación en niños con discapacidad auditiva, que oscilan entre los 7 a 14 años de edad a través de este recurso, es posible mejorar las competencias lingüística, permitiendo la realización de tareas repetitivas de entrenamiento, abriendo a las personas con discapacidad auditivas una puerta hacia la integración y a la autonomía personal en el aprendizaje y el acceso a la información. Palabras Clave Accesibilidad; integracion; Comunicacion Universal .

discapacidad

auditiva;

Abstract Education, in the development of every person is vital, due to the fact that improves participation in social, cultural and political life of society. It is essential that education takes support on sciences as computing, pedagogy and communication, allowing to reinforce the teaching and learning process trying to be more attractive, entertaining and dynamic. The objective of this study is to show the research and design that allows to increase motivation in children with hearing disability, ranging from 7-14 years old. Through this resource it is possible to improve the linguistic skills, allowing to perform repetitive training tasks, opening for people with hearing disabilities a door towards integration and personal autonomy in learning and access to information. Keywords -Accessibility; Hearing Disability; Integration; Universal Communication.

I.

INTRODUCCIÓN

Desde una perspectiva educativa los alumnos y alumnas con discapacidad auditiva se suelen clasificar en dos grandes grupos: hipoacúsicos y sordos profundos [1]. Los hipoacúsicos

son alumnos con audición deficiente que, no obstante, resulta funcional para la vida diaria, aunque necesitan el uso de prótesis. Este alumnado puede adquirir el lenguaje oral por vía auditiva. Son sordos profundos los alumnos y alumnas cuya audición no es funcional para la vida diaria y no les posibilita la adquisición del lenguaje oral por vía auditiva. Un niño o niña es considerado sordo profundo si su pérdida auditiva es tan grande que, incluso con una buena amplificación, no es posible un aprovechamiento de los restos. La visión se convierte en el principal lazo con el mundo y en el principal canal de comunicación. Se habla de alumnos y alumnas con pérdidas auditivas leves, medias, severas o profundas. En la deficiencia auditiva leve, el umbral de audición se sitúa entre 20 y 40 decibelios y en condiciones normales puede pasar desapercibida. La deficiencia auditiva media tiene un umbral que se sitúa entre 40 y 80 decibelios, se puede adquirir la oralidad por vía auditiva, si se cuenta con una buena prótesis. Aparecen déficits más importantes a medida que el umbral se sitúa o supera los 70 decibelios y se hace necesario optimizar las condiciones receptivas de su vía auditiva mediante una prótesis bien adaptada estimulación auditiva y apoyo logopédico. Una deficiencia auditiva es severa cuando el umbral está entre 70 y 90 decibelios y sólo puede percibir algunas palabras amplificadas. El proceso de adquisición del lenguaje oral no se realizará de forma espontánea, por lo que será imprescindible la intervención logopédica para lograr un habla inteligible y un lenguaje estructurado y rico en vocabulario. Cuando el umbral auditivo es superior a 90 decibelios estamos ante una deficiencia auditiva profunda. No pueden percibir el habla a través de la audición. Necesitan la ayuda de códigos de comunicación alternativa [2]. Cuando no tienen otras deficiencias asociadas, los niños y niñas sordos tienen una capacidad intelectual similar a la que poseen los oyentes, aunque su desarrollo cognitivo puede verse

CISTI 2015 | 123

limitado, en algunos casos, por sus dificultades lingüísticas, la regulación del comportamiento, los sentimientos de inseguridad y las dificultades en sus relaciones sociales, ocasionadas por el desconocimiento de las normas sociales, que son también una consecuencia de las limitaciones en el lenguaje. II.

QUE ES LA DISCAPCIDAD AUDITIVA

Unos de los más grandes y graves problemas que puede sufrir una persona es la deficiencia del lenguaje porque a través de ella el ser humano se comunica, conoce su pasado, puede analizar, interpretar y comprender su presente y, consiguientemente, proyectarse hacia el futuro como individuo y ser social. Hoy en día se conoce por discapacidad auditiva lo que generalmente se ha considerado como sordera, también es utilizada para referirse a todos los tipos y grados de pérdida auditiva y por lo general es usada como sinónimo de deficiencia auditiva e hipoacusia. una serie de incapacidades que van desde lo superficial hasta lo más profundo. El problema que muestra un sordo profundo para su educación es totalmente diferente del que solo sufre hipoacusia [3] ya que en el primer grupo la pérdida de audición que posee es tan importante que no se beneficia de aparatos de amplificación. A. Causas de Perdidas Auditivas La pérdida auditiva puede deberse a tres causas fundamentales 1) Causas en el Oído Externo Habitualmente las dificultades en el oído externo son ocasionadas por abundantes acumulaciones de ceras e infecciones en el conducto auditivo. Estos problemas suelen ser de fácil solución, siempre y cuando la atención sea rápida y la adecuada para evitar daños en la audición. 2) Causas en el Oído Medio En el oído medio el inconveniente que surge con mayor frecuencia es la presencia de líquido, inflamación o una infección por detrás del tímpano, perforaciones o rupturas del tímpano y la presencia de un hueso esponjoso anormal que crece en el oído medio llamado otosclerosis. Este crecimiento impide que el oído vibre en respuesta a las ondas sonoras, siendo estas necesarias para que uno pueda oír. En la mayoría de los problemas del oído externo y medio puede llegar a ser temporal y se cura por medio de un tratamiento médico adecuado ya sea por medicación o por cirugía. Esta pérdida también se puede llegar a corregir con un audífono o un implante 3) Causas en el oído interno En el caso del oído interno la mayoría de los problemas resultan ser por daños en sus estructuras causando la pérdida de audición, siendo aquí la causa más frecuente el desgaste natural de la edad, la exposición a sonidos fuertes, sufrir fracturas en la cabeza, el excesivo consumo de tabaco y

de alcohol, y algunos medicamentos que son de uso común por su bajo precio también llegan afectar negativamente la capacidad auditiva de las personas. La sordera del oído interno no tiene tratamiento médico pero en la mayoría de los casos con el apoyo de audífonos pueden llegar a corregirse. La pérdida auditiva ocasionada por una lesión en el oído externo o medio se la denomina pérdida auditiva conductiva. Cuando la lesión se ubica en el oído interno, recibe el nombre de pérdida auditiva neurosensorial y la combinación de ambas se la conoce como pérdida auditiva mixta. B. Problemas Frecuentes con las Perdidas Auditivas 1) Tinnitus u Acúfenos Son ruidos producidos por el oído interno, que las personas escuchan cuando no se presenta un sonido físico externo. Las personas afectadas describen el sonido que perciben como un campanilleo, silbido, golpes, ruido de lluvia, pitido, zumbido grave o agudo, ronroneo, siseo, cantar de grillos o un clic, que se presenta de manera constante y en otros como un fenómeno intermitente. Se pueden clasificar en dos categorías: i) Se dice que es subjetivo cuando el sonido lo percibe solamente la persona afectada y no las personas que la rodean, dicha percepción puede ser en uno o en los dos oídos o más bien en la cabeza. Mientras que otros con menos frecuencia son objetivos, ya que son percibidos tanto por la persona afectada y también por otras personas, ya sea acercándose o con el uso de un estetoscopio ii) Pueden ser de tonalidad grave o aguda. Los de tono grave, tienen su origen en el oído medio, habitualmente son cambiantes, pueden no estar permanentemente y son tratables ya sea a través de medicamentos o de manera quirúrgica. Los de tono agudo, tienen su origen en el oído interno, no son cambiantes y generalmente son permanentes. Habitualmente no tienen tratamiento o el mismo no es tan eficaz, a excepción de los causados por enfermedad de Ménière (trastorno del oído interno que afecta el equilibrio y la audición). Muchas personas sufren acúfenos cuya intensidad es muy baja, tratándose de una molestia que no limita su calidad de vida, pero cuando la molestia es severa lo altera por completo debido a los inconvenientes psicológicos que genera: problemas para lograr el sueño, la falta de concentración total en la actividad profesional, mal humor, conducta agresiva e irritable ante con acciones más exacerbadas de lo que la situación amerita.

CISTI 2015 | 124

III.

ASPECTOS DIFERENCIALES EN LAS DISTINTAS AREAS DEL DESARROLLO

Los niños y niñas con problemas auditivos no tienen necesariamente que presentar déficits en su capacidad intelectual si bien su evolución se enfrenta con problemas derivados de las dificultades para adquirir e interiorizar el lenguaje, ya que la discapacidad auditiva repercute directamente sobre el proceso de adquisición y desarrollo del mismo en ellos. La deficiencia en uno de los canales sensoriales tan importante como la audición en el desarrollo de la conducta adaptativa, provoca en los individuos una importante pérdida en la estimulación general. La sordera afecta a la generación y desarrollo de las representaciones fonológicas (representaciones mentales, basadas en sonidos y/o grupos fonológicos del habla). Aunque la percepción del habla a través de la audición no es la única fuente de representación fonológica, sí es la principal. No obstante, el sordo tiene otras vías de acceso a las rutas fonológicas (dactilología, lectura labiofacial, ortografía, etc.), pero todas ellas son incompletas. En su conjunto, el desarrollo fonológico de la persona sorda expuesto sólo a nivel de lectura labiofacial, es muy incompleto debido a las ambigüedades de ésta. Para resolver este problema se han desarrollado sistemas significado del mensaje oral pueda ser percibido a través de la vista con mayor claridad por las personas con discapacidad auditiva Los niños y niñas sordos no desarrollan el lenguaje de forma espontánea, su adquisición y desarrollo es fruto de un aprendizaje intencional mediatizado por el entorno; así los niños y niñas sordos de padres y madres oyentes aprenden el lenguaje oral que se utiliza en su entorno familiar y los de padres y madres sordos aprenden de forma natural el lenguaje de signos. En algunos casos, adquieren simultáneamente el lenguaje oral y el de signos. A. Las Necesidades Educativas Especiales de los Alumnos con Discapacidad Audita En mayor o menor medida, según los casos, y como consecuencia de las repercusiones de la discapacidad auditiva en las distintas áreas de desarrollo citadas en el apartado anterior, las necesidades educativas de este alumnado pueden concretarse en las siguientes: 1) La adquisición temprana de un sistema de comunicación, ya sea oral o signado, que permita el desarrollo cognitivo y de la capacidad de comunicación y que favorezca el proceso de socialización [3]. 2) El desarrollo de la capacidad de comprensión y expresión escrita que permita el aprendizaje autónomo y el acceso a la información [4]. 3) La estimulación y el aprovechamiento de la audición residual y el desarrollo de la capacidad fonoarticulatoria. 4) La construcción del autoconcepto y la autoestima positivos y el desarrollo emocional equilibrado.

5) La obtención de información continuada de lo que ocurre en su entorno y de normas, valores y actitudes que permitan su integración social, en su caso, por vías complementarias a la audición. 6) La personalización del proceso de enseñanza y de aprendizaje mediante las adaptaciones del currículo que sean precisas, el empleo del equipamiento técnico para el aprovechamiento de los restos auditivos, el apoyo logopédico y curricular y, en su caso, la adquisición y el uso de la lengua de signos [5]. B. Antecentes Los Software Educativos para niños especiales son desarrollados en diferentes idiomas y países, en base a distintos criterios pedagógicos, para ciertos niveles de estudios. Estos son programados en ambientes gráficos e interactivos con el fin de crear un aprendizaje entretenido y divertido [6]. Algunas de las investigaciones que se han llevado a cabo, se ven reflejado en países como Estados Unidos, España, Venezuela y Colombia, que el software puede ser trabajado con niños que sufren distintos tipos de discapacidades, obteniéndose resultados asombrosos a través de programas con distintos enfoques, que en ellas incluyen animaciones, sonidos, dibujos, juegos y ejercicios y que van de acuerdo a la capacidad del alumno. Entre éstos software y aplicaciones para teléfonos móviles y Tablet se destacan: Kanghooru (Discapacidad motora) HeadMouse. Control de la computadora por WebCam (Discapacidad motora) Teclado Virtual (Discapacidad motora) App - VirtualTEC (Discapacidad motora) AbcSound (Discapacidad Visual) App - Ciegos discapacidad visual (Discapacidad Visual) App - Orasi (Discapacidad Visual) Calcwav: una calculadora parlante (Discapacidad Visual / Discapacidad motora) JAWS: Job Acces with Speech (Discapacidad Visual) Zoom V1.01 (Discapacidad Visual) Super Magnify (Discapacidad Visual) App - AMPDA (Discapacidad auditiva) App - The deaf And Hearing Impaired (Discapacidad auditiva) App Software per audiolesi (Discapacidad auditiva) App LIS Lingua dei Segni List (Discapacidad auditiva) American Sign Language (Discapacidad auditiva) Globus (Discapacidad auditiva / Trastornos del habla) App - Virginia ayuda discapacitados (Discapacidad auditiva / Trastornos del habla) Entrenamiento visual por ordenador. EVO v 1.0. (Disminución visual) Varios de Clic (Aplicable a toda discapacidad) Solca (Aplicable a toda discapacidad)

CISTI 2015 | 125

App - CERMI (Aplicable a toda discapacidad) Sin embargo son numerosos los recursos brindados hacia los niños con deficiencia auditiva, la creación de estímulos y el uso de la tecnología computacional se han generalizado cada vez más, desarrollando y utilizando un conjunto de programas específicos para abordar dicha necesidad hacia su integración [7]. De todas estas aplicaciones, realizar una general obviamente sería una tarea demasiada complicada pero sacando de ellas las partes más importantes que han generado resultados asombrosos sería una muy buena alternativa IV.

METODOLOGIA APLICADA PARA EL DESARROLLO

DEL SISTEMA

Para el desarrollo del sistema multimedia para niños con discapacidad auditiva, se ha considerado el uso de la metodología OOHDM (Object Oriented Hipermedia Design Method) que traducido al español quiere decir Método de Diseño Hipermedia Orientado a Objetos, propuesta por D. Schwabe y G.Rossi [8]. Y tiene como fin simplificar y hacer más eficaz el diseño y la construcción de aplicaciones hipermediales. A. Caracteristicas de la metodologia OOHDM [9] [10] La primera de ellas es que OOHDM está basada en el paradigma de la orientación a objetos. En esto se diferencia de su antecesor HDM (modelo de diseño de hipermedia). Otra característica de OOHDM es que, a diferencia de HDM, no sólo propone un modelo para representar a las aplicaciones de tecnologías de la comunicación y la información, sino que propone un proceso predeterminado para el que indica las actividades a realizar y los productos que se deben obtener en cada fase del desarrollo. Fundamentalmente OOHDM toma como partida el modelo de clases que se obtiene en el análisis del Proceso Unificado de UML. A este modelo lo denomina modelo conceptual. Partiendo de este modelo conceptual, OOHDM propone ir añadiendo características que permitan incorporar a esta representación del sistema todos los aspectos propios de las aplicaciones multimedia. En una segunda etapa de diseño, se parte de ese modelo conceptual y se añade a éste todos los aspectos de navegación, obteniéndose un nuevo modelo de clases denominado modelo navegacional. Por último, este modelo sirve como base para definir lo que en el argot de OOHDM se denomina modelo de interfaz abstracta. El modelo de interfaz abstracta representa la visión que del sistema tendrá cada usuario del mismo. Esta metodología propone dedicar un tiempo importante en las fases previas a la implementación, esta inversión de tiempo está ampliamente justificada no sólo porque simplifica el proceso de desarrollo, facilitando el trabajo del equipo encargado de cada capa de la aplicación, sino también durante su mantenimiento y eventual extensión [11]. V.

CONCLUSIONES

El sistema multimedia para niños con discapacidad auditiva brinda una herramienta de aprendizaje donde el estudiante consigue con mayor facilidad a los conocimientos por medio

del uso de la tecnologías de la comunicación y la información, sintiéndose bien motivados y cómodos al efectuar las actividades, respetando el ritmo de aprendizaje individual, incentivando su curiosidad y favoreciendo el desarrollo de actitudes positivas, todo ello con el aporte dinámico de las imágenes, animaciones y videos. El sistema multimedia para niños con discapacidad auditiva constituye una ayuda computacional enfocada a los niños que están comenzando sus estudios de la lengua de señas, también es utilizado como material de apoyo didáctico en clases por los profesores. Para concluir se puede decir que los niños que sufren una discapacidad tanto auditiva, visual, motriz u otro tipo de deficiencia son tan capaces como aquellos que no lo son, la paciencia y sobre todo los conocimientos en la enseñanza a estos niños hacen que sean individuos útiles en nuestra sociedad, por lo tanto es muy importante seguir avanzando en la elaboración y construcción de propuestas educativas de esta índole y con la utilización de nuevos recursos tecnológicos para hacer el aprendizaje mucho más rápido, fácil y entretenido, de todos nosotros depende que este sueño se haga realidad. REFERÊNCIAS BIBLIOGRÁFICA [1]

Propuesta de conceptualización de las personas sordas e hipoacúsicas en el contexto pedagógico. Disponible http://www.rieoei.org/970kenia.htm unpublished. [2] Problemas de la Audicion y Sordera- National Library of Medicine, ww.nlm.nih.gov/medlineplus/spanish/hearingdisordersanddeafness.html, in press. [3] J.J. Delgado Domínguez, Grupo PrevInfad/PAPPS Infancia y Adolescencia, Pediatría Atención Primaria versión impresa ISSN 11397632, Detección precoz de la hipoacusia infantil, http://scielo.isciii.es/scielo.php?pid=S113976322011000200012&script=sci_arttext [4] María del Pilar Sánchez Hípola, Eduga: revista galega do ensino, ISSN 1133-911X, Nº 32, 2001 , págs. 89-106 Enciclopedia psicopedagógica de necesidades educativas especiales / coord. por Francisco Salvador Mata, Vol. 2, 2001,ISBN 849700-022-6 , págs. 205-228 [5] Nuevas Tecnologias Aplicadas a la Sordera. Disponible en: http://tecnologia-y-deficiencia-auditiva.blogspot.com.ar/ (Consultada: 26 de Octubre 2014), unpublished [6] María Ignacia Massone, Edith Moroni, Marina Simón (2001). Curso Graficado de Lengua de Señas Argentina. (Edición especial) Posadas, Argentina. Editorial Universitaria, Universidad Nacional de Misiones [7] Tecnologias sin Barreras Programas informáticos para niños sordos. Disponible en http://tecnologiasinbarreras.blogspot.com.ar/2007/12/programasinformticos-para-nios-sordos.htm; unpublished [8] Schwabe, D. y Rossi G. "The Object-Oriented Hypermedia Design Method". Communications of the ACM, Agosto, 1995. [9] Schwabe, D., Rossi G. y Barbosa, S. "Systematic Hypermedia Application Design with OOHDM", Tech. Rep., Departamento de Informática, PUC-Rio, Brasil, 1996. [10] Ricardo Soto De Giorgis, Wenceslao Palma Muñoz, Silvana Informática, Universidad Católica de Valparaíso, Chile. (Libro electrónico). [11] IEEE Std 830. http://www.fdi.ucm.es/profesor/gmendez/docs/is0809/ieee830.pdf. unpublished

CISTI 2015 | 126

[12] Escalona Cuaresma, M. Metodologías para el desarrollo de sistemas de Disponible en: http://www.lsi.us.es/docs/informes/EstadoActual.pdf., unpublished [13] Juegos y Material Didáctico en Lengua de Señas Argentina. Disponible en http://didacticoslsa.blogspot.com/2008/01/proyecto.html unpublished

[14] Silvana Veinberg, Marisa Macchi (2005). "Estrategias de prealfabetización para niños sordos". Buenos Aires, Argentina. Editorial: Noveduc ISBN: 987-538-137-3 Págs.: 224

CISTI 2015 | 127

Automatic Quality Evaluation of Machine-Translated Output in Sociological-Philosophical-Spiritual Domain Sanja Seljan; Ivan Department of Information and Communication Sciences Faculty of Humanities and Social Sciences, University of Zagreb Zagreb, Croatia [email protected]; [email protected] Abstract Automatic quality evaluation of machine translation systems has become an important issue in the field of natural language processing, due to raised interest and needs of industry and everyday users. Development of online machine translation systems is also important for less-resourced languages, as they enable basic information transfer and communication. Although the quality of free online automatic translation systems is not perfect, it is important to assure acceptable quality. As human evaluation is time-consuming, expensive and subjective, automatic quality evaluation metrics try to approach and approximate human evaluation as much as possible. In this paper, several automatic quality metrics will be utilised, in order to assess the quality of specific machine translated text. Namely, the research is performed on sociological-philosophical-spiritual domain, resulting from the digitisation process of a scientific publication written in Croatian and English. The quality evaluation results are discussed and further analysis is proposed. Keywords automatic quality evaluation; machine translation; BLEU; NIST; METEOR; GTM; English-Croatian; CroatianEnglish; sociological-philosophical-spiritual domain.

I.

INTRODUCTION

Machine translation evaluation has become a hot topic of interest to numerous researchers and projects, usually when comparing several machine translation systems with the same test set or when evaluating one system through different phases, such as automatic evaluation, correlation of automatic evaluation scores with human evaluation etc. [1]. Lately, extensive evaluation of machine translation quality was conducted focusing on online machine translation systems, commercial or integrated systems applying statistical machine translation, sometimes combined with other machine translation approaches [2]. Statistical machine translation systems rely on huge amounts of parallel data, which is sometimes inconvenient for less-resourced languages or between different types of languages, and which requires more detailed quality error analysis and evaluation, in order to improve the performance of a machine translation system [3]. Some authors point out the context of machine translation evaluation relating quality, purpose and context, trying to establish a coherent evaluation approach [4]. Automatic evaluation for less-resourced, but morphologically rich

languages is a topic of interest of numerous researchers and organisations, since the results could be useful to professional translators, translation industry, researchers and to everyday users. The main advantages of automatic evaluation metrics are speed, cost and objectiveness. They perform always in the same way, and besides being tuneable, they can provide meaningful, consistent, correct and reliable information on the level of machine translation quality [5]. Human evaluation, on the other hand, is considered to be is subjective, tedious and more expensive. II.

RELATED WORK

Evaluation of machine translation was mainly performed in the legislation, technical or general domain, due to available bilingual corpora [6]. Domains such as sociology, philosophy or religion are rarely investigated, as acquiring necessary corpora and a specific reference translation represents a notable problem. However, one research paper describes translation in crosslanguage information access performed by machine translation, supplemented by domain-specific phrase dictionaries, which were automatically mined from the online Wikipedia in the domain of cultural heritage [7]. Queries were translated from and into English, Spanish and Italian and then evaluated using human annotations. In a research, the idea was to evaluate machine translations produced by Google Translate for the English-Swedish language pair and for the fictional and non-fictional texts, including samples of law documents, commercial company reports, social science texts (religion, welfare, astronomy) and medicine [8]. Evaluation is carried out with the BLEU metric, showing that law texts gained double of average BLEU scores. Evaluation of machine translation shows better scores for about 20% when two reference sets are used, and up to 29% for three reference sets, with regard to differentiating short and long sentences [9]. Besides sentence length, other problems in the machine translation process were investigated, such as specific terminology, anaphora and ambiguity [8]. Another research describes the importance of the translation domain, which influences the quality of machine

CISTI 2015 | 128

translation output. Therefore, domain knowledge and specific terminology translations have been added [10]. The research is conducted with the SYSTRAN translation system, which uses the transfer translation approach for Chinese-English, EnglishFrench, French-English and Russian-English language pairs. Research on machine translation of religious texts by Google Translate for English-Urdu and Arabic-Urdu has also been conducted [11]. Evaluation of cross-language information retrieval using machine translation in the domain of sociology is presented in [12] for English, French, German and Italian. III.

RESEARCH

The following subsections describe the digitisation process and data set, and discuss the research methods, quality evaluation metrics and used tools. A. Digitisation For the purpose of this research, a book of abstracts from a scientific conference containing mutual translations in Croatian and English was digitised with a scanner. Digitisation represents the systematic recording, storing and processing of content using digital cameras, scanners and computers [13]. It is the process of creating a digital representation of an object, image, document or a signal, and allows them to be stored, displayed, disseminated and manipulated on a computer. In order to digitise the mutual bitexts, a HP Scanjet G3110 flatbed scanner was used, set to 300 dpi and grayscale scanning. Scanned abstracts were in A5 format and text was written in Times New Roman font, size 10, standard black font colour on white paper. Afterwards, optical character recognition (OCR) was carried out for extracting, editing, searching and repurposing data from the scanned book of abstracts. In this research Abby Fine Reader 8.0.0.677 was used as the OCR software, which identifies text by analysing the structure of the object that needs to be digitised, by dividing it into structural elements and by distinguishing characters through comparison with a set of pattern images stored in a database and built-in dictionaries. During optical character recognition, errors are inevitable, and the induced noise is a serious challenge to subsequent processes that attempt to make use of such data [14]. B. Data set The book of abstracts, which consisted of 41 abstracts, was digitised and afterwards processed with OCR, then manually corrected and later on used as the reference set for machine translation, i.e. gold standard. The book contained very specific abstracts of full scientific papers in the fields of sociology, psychology, theology and philosophy with emphasis on several topics, such as human dignity, religion, dialogue, freedom, peace, responsibility, family and community, philosophical and sociological reflections. The texts were compiled into a parallel bilingual sentencealigned Croatian-English bitext consisting of mutual translations relating to the sociological-philosophical-spiritual domain. The process of preparing the data set included the digitisation of printed material, applying OCR techniques and its evaluation. All segments were sentence-aligned and a translation memory was created. The format of such a

translation memory is ideal for further research in statistical terminology and collocation extraction, evaluation and analysis. The following table shows the data set statistics (Table I). The data set consisted of 369 segments (sentences) and 107264 characters in total. The longest segment was 80 words long in Croatian, and 88 words in English, whereas 3677 distinct words appeared in Croatian, and 2782 in English. On average, English abstracts were composed of 10.6% more characters, and 19% more words. Specificity of terminology is also reflected in the large number of hapax legomena, which also indicates a variety of different topics in the digitised book of abstracts. TABLE I. Data set

DATA SET STATISTICS Language Croatian

English

No. of characters

50631

56633

No. of words

7340

9062

No. of segments

369

369

No. of abstracts

41

41

Max. of words per segment

80

88

Min. words per segment

1

1

3677

2782

2837 (77.16%)

1892 (68.01%)

424 (11.53%)

389 (13.98%)

Distinct words Words that appear only once (hapax legomena) Words that appear twice (dis legomena) Words that appear three times (tris legomena) Words that appear more than three times Arithmetical mean of characters per abstract Arithmetical mean of characters per segment Arithmetical mean of words per abstract Arithmetical mean of words per segment

165 (4.49%)

159 (5.72%)

251 (6.83%)

342 (12.29%)

1234.90

1381.29

137.21

153.48

179.02

221.02

19.89

24.56

No. of OCR errors in total

66

67

Arithmetical mean of OCR errors per abstract

1.61

1.63

In total, 133 OCR errors occurred in the digitisation process. Typical errors during optical character recognition were misrecognitions of characters, missing whitespace characters or apostrophes, various forms of substitution errors, as well as space deletion and insertion errors. The most frequent OCR errors in Croatian were substitution errors (e.g. deletion, where two words were erroneously unified (e.g. ( ( )). The most frequent OCR errors in English were substitution errors (e.g. («) apostrophes ('). OCR errors have an impact on later-stage processing and data usability, therefore, all scanned texts were manually post-edited afterwards.

CISTI 2015 | 129

C. Tools and methods All machine translations for both directions (CroatianEnglish and English-Croatian) were generated by the freely available online machine translation service, Google Translate (https://translate.google.com/). Automatic machine translation quality evaluation is performed for both directions by the following metrics: BLUE (BiLingual Evaluation Understudy), NIST (National Institute of Standards and Technology), METEOR (Metric for Evaluation of Translation with Explicit ORdering) and GTM (General Text Matcher). The basic idea behind the mentioned metrics is to calculate the matching of automatic and reference translations. The metrics are based on overlapping of the same surface forms, which is not suitable for languages with rich morphology and relatively free word order. Some of the metrics are based on fixed word order (METEOR, GTM), which is also not suitable for languages with relatively free word order, such as Croatian. BLEU is more order-independent, whereas METEOR introduces linguistic knowledge for n-grams having the same lemma, or for synonym matches. GTM and METEOR are based on precision and recall, while BLEU and NIST are based on precision and to compensate recall, BLEU introduced brevity penalty [15]. Metrics are mainly focused on evaluation of adequacy, as it gives information to what extent the meaning in the translation is preserved, and penalise translations with missing words, affecting recall. The BLEU metric, proposed by IBM, represents a standard for machine translation evaluation [16]. It matches machine translation n-grams with n-grams of its reference translation, and counts the number of matches on the sentence level, typically for 1-4 n-grams. For each n-gram it assigns the same weights, which is one of the main defaults of this metric. This metric is based on the same surface forms, accepting only complete matches, and does not take into account words having the same lemma. BLEU also assigns a brevity penalty score, which is given to automatic translations shorter than the reference translation. It allows evaluation of multiple reference translations as well. The NIST metric is based on BLEU with some modifications [17]. While BLEU is based on n-gram precision assigning an equal weight to each word, NIST calculates information weight for each word, i.e. higher scores are given to more rare n-grams which are considered as more informative n-grams. It differs also from BLEU in brevity penalty calculation, where small differences in translation length do not impact the overall score. Stemming is significantly beneficial to BLEU and NIST [18]. METEOR metric modifies BLEU in the way that it gives more emphasis to recall than to precision [19]. This metric incorporates linguistic knowledge, taking into account the same lemma and synonym matches, which is suitable for languages with rich morphology [20]. This metric, like GTM, favours longer matches in the same order. It uses fragmentation penalty, which reduces F-measure if there are no bigrams or longer matches [21]. This metric is calculated at the sentence or segment level, while BLEU metric is usually computed at the

corpus level. It cannot implement language knowledge from several references into the score, but gives scores for each reference translation. GTM metric computes the correct number of unigrams and favours longer matches, based on precision (the number of correct words, divided by the generated machine translation system output-length) and recall (the number of correct words, divided by the reference-length) and calculates the F-measure [22]. This metric computes unigrams, i.e. the correct number of unigram matches referring to non-repeated words in the output and in the reference translation. This metric favours n-grams in the correct order and assigns them higher weights [23]. Apart from the mentioned disadvantages of automatic evaluation metrics, there are other numerous defaults, such as, aspect of evaluation, difficulties with the interpretation and meaning of scores, ignoring the importance of words, not addressing grammatical coherence etc. [23]. IV.

RESULTS AND DISCUSSION

The following table shows the results of automatic machine translation quality evaluation metrics (Table II). BLEU scores range from 0 (no overlapping with reference translation) to 1 (perfect overlapping with reference translation), whereas scores over 0.3 generally reflect understandable translations, and scores over 0.5 reflect good and fluent translations [24]. METEOR scores are usually higher than BLEU scores and reflect understandable translation when higher than 0.5, and good and fluent translation when scored higher than 0.7 [24]. NIST scores be 0 or higher, and have no fixed maximum, whereas GTM scores can range from 0 to 1. Different metric scores provide an overall overview of the machine translation quality with regard to various aspects of evaluation and can be correlated. TABLE II.

RESULTS OF AUTOMATIC QUALITY EVALUATION METRICS

Machine translation direction

Automatic machine translation quality evaluation metrics (higher is better) BLEU

NIST

METEOR

GTM

English-Croatian

0.1656

4.6527

0.1976

0.3348

Croatian-English

0.2383

5.8686

0.2439

0.5044

Overall, results of automatic quality assessment show better scores for Croatian-English direction for 20-30%. This is mainly due to fact that Croatian language is highly flective with rich morphology. Furthermore, metrics which rely on word matching penalise the word types that appear in form of different tokens. As the data set belongs to the sociologicalphilosophical-spiritual domain, it contains specific terminology for which Google Translate does not provide a correct translation. Namely, such terminology is unlikely to appear in the correct context in the language and translation models of the analysed machine translation system. The fact that the data set contains 77.16% of hapax legomena in Croatian and 68.01% in English also points to infrequently used terminology. BLEU metric, which ignores the word relevance, penalises a machine translation that is shorter than the reference translation and counts the words having the same

CISTI 2015 | 130

surface form. In this research BLEU score is relatively low for English-Croatian (0.17) when compared to the CroatianEnglish direction (0.24). Generally, translating from morphologically rich languages to less rich languages results in better BLEU scores. NIST metric which is sensitive to more informative n-grams which occur less frequently, gives the following results: 4.65 for English-Croatian and 5.87 for Croatian-English. The metric METEOR shows scores close to BLEU metric for English-Croatian (0.20) and for CroatianEnglish (0.24). Although METEOR counts matches at the stem level, in this research the raw data set was used, which was not lowercased and tokenised. The results of GTM metric, which computes F-measure, are as follows: 0.33 for English-Croatian and 0.50 for Croatian-English. The GTM score for EnglishCroatian is lower than for Croatian-English due to morphological variants of the same lemma, which causes lower scores due to non-matching of words belonging to the same lemma but with different morphological suffixes. V.

[3] [4] [5] [6]

[9]

[10] [11] [12]

[14] [15]

[16]

[17] [18]

[19]

[20]

REFERENCES

[2]

[8]

[13]

CONCLUSIONS

In this research, a book of scientific abstracts was digitised with a scanner, subsequently processed with OCR, later on post-edited, and eventually used as a gold standard for machine translation. Automatic machine translations were generated by Google Translate and afterwards evaluated by means of several metrics and for both directions (Croatian-English and EnglishCroatian). The results for translation into Croatian are less scored due to specific terminology that is not widely used on the internet and therefore not available in the correct context in the machine translation models, morphological richness of the Croatian language, long sentences, relatively free word order and grammatical case agreement. Namely, this causes decreased scores since several types of the same lemma, which are not identical with the reference morphological variant, count as mismatches. Overall, results of the automatic machine translation quality evaluation for BLEU, NIST, METEOR and GTM are better for the Croatian-English direction (20-30% better). Further research on automatic quality evaluation would include more extensive evaluation applying other metrics, text lemmatisation, lowercasing, tokenisation and enlargement of the data set, using multiple reference sentences. [1]

[7]

D. R. Amancio, M. G. V. Nunes, O. N. Oliveira Jr., T. A. S. Pardo, L. Antiqueira and L. da F. Costa, Using metrics from complex networks to Physica A: Statistical Mechanics and its Applications, vol. 390, no. 1, 2011, pp. 131-142. S. Hampshire and C. Porta Salvia, Translation and the internet: Evaluating the quality of free online machine translators Quaderns: revista de traducció, no. 17, 2010, pp. 197-209. S. Stymn Pre- and postprocessing for statistical machine translation into germanic languages ACL-HLT 2011 Student Session, 2011, pp. 12-17. Principles of context-based E. Hovy, M. King and A. Popescumachine translation evaluation, Machine Translation, vol. 17, 2002, pp. 43-75. P. What is a better translation? Reflections on six years of running evaluation campaigns, Tralogy 2011, 2011, p. 9, available at: http://homepages.inf.ed.ac.uk/pkoehn/publications/tralogy11.pdf C. Kit and T. M. Wong, Comparative evaluation of online machine translation systems with legal texts Law Library Journal, vol. 100, no. 2, 2008, pp. 299-321.

[21]

[22]

G. J. F. Jones, F. Fantino, E. Newman, and Y. Zhang, Domain-specific query translation for multilingual information access using machine translation augmented with dictionaries m ceedings of th Second International Workshop on oss Lingual -41. J. Salimi, Machine Translation Of Fictional And Non-fictional Texts, Stockholm University Library, 2014, p. 16, available at: http://www.diva-portal.org/smash/get/diva2:737887/FULLTEXT01.pdf S. BLEU evaluation of machinetranslated English-Croatian legislation Proceedings of the Eighth International Conference on Language Resources and Evaluation (LREC'12), 2012, pp. 2143-2148. E. D. Lange and J. Yang, Automatic domain recognition for machine MT Summit VII, 1999, pp. 641-645. translation T. T. Soomro, G. Ahmad and M. Usman, Google Translation service issues: Religious text perspective, Journal of Global Research in Computer Science, vol. 4, no. 8, 2013, pp. 40-43. M. Braschler, D. Harman, M. Hess, M. Kluck, C. Peters and P. Schäuble he evaluation of systems for cross-language information retrieval Proceedings of the Second International Conference on Language Ressources and Evaluation (LREC-2000), 2000, p. 6. D. Lopresti, Optical character recognition errors and their effects on natural language processing, International Journal on Document Analysis and Recognition, vol. 12, no. 3, 2009, pp. 141-151. contexts of digitization and preservation of written h Digital Resources and Knowledge Sharing Conference, 2009, pp. 87-94. C. Callison-Burch, M. Osborne and P. Koehn, Re-evaluating the role of BLEU in machine translation research Proceedings of the 11th Conference of the European Chapter of the Association for Computational Linguistics, 2006, pp. 249-256. K. Papineni, S. Roukos, T. Ward and W. J. Zhu BLEU: a method for automatic ev Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, 2002, pp. 311-318. Automatic evaluation of machine translation quality using n-gram co-occurrence statistics Proceedings of the Second Conference on Human Language Technology, 2002, pp. 128-132. A. Lavie, K. Sagae and S. Jayaraman, The significance of Recall in Automatic Metrics for MT Evaluatio in Machine Translation: From Real Users to Research, R. E. Frederking and K. B. Taylor, Eds. Berlin, Heidelberg: Springer, 2004, pp. 134-143. S. Banerjee and A. Lavie METEOR: An automatic metric for MT evaluation with improved correlation with human judgments Proceedings of the Workshop on Intrinsic and Extrinsic Evaluation Measures for MT and/or Summarization at the 43rd Annual Meeting of the Association of Computational Linguistics, 2005, pp. 65-72. M. Denkowski and A. Lavie, Meteor 1.3: Automatic metric for reliable optimization and evaluation of machine translation systems Proceedings of the Sixth Workshop on Statistical Machine Translation, (ACL), 2011, pp. 85-91. A. Agarwal and A. Lavie, METEOR, M-BLEU and M-TER: Evaluation metrics for high-correlation with human rankings of machine Proceedings of the ACL 2008 Workshop on Statistical Machine Translation, 2008, pp. 115-118. Automated Community Content Editing PorTal (ACCEPT) of existing metrics and proposal for a taskCommunity's FP7 project deliverable, 2012, available at: http://cordis.europa.eu/docs/projects/cnect/9/288769/080/deliverables/00 1-D91Analysisofexistingmetricsandproposalofataskorientedmetric.pdf

[23] Translation Summit, 2003, pp. 386-393. [24]

AMTA Tutorial, 2010, p. 86, http://amta2010.amtaweb.org/AMTA/papers/6-04LavieMTEvaluation.pdf

CISTI 2015 | 131

available

, at:

Percursos Todo Terreno Turísticos Proposta de uma aplicação Web Mapping para partilha e pesquisa de percursos

Offroad tracks A web mapping application proposal for track sharing and query Luís Goulart1, Pedro Gonçalves12, Mário Rodrigues13 1

ESTGA Universidade de Aveiro, Águeda, Portugal 2 Instituto de Telecomunicações, Aveiro, Portugal 3 IEETA Universidade de Aveiro, Aveiro, Portugal {luiscgoulart, pasg, mjfr}@ua.pt

Resumo Anualmente, realizam-se no país centenas de iniciativas de Todo-Terreno Turístico (TTT) onde são automaticamente registadas as coordenadas de Global Positioning System (GPS) por aplicações de dispositivos móveis. Entre outras, são registadas a posição, velocidade e altitude do veículo o que permitem obter informações relevantes como se o percurso se encontra transitável ou a velocidade recomendada. Estas informações têm valor numa variedade de cenários. Por exemplo durante o combate a incêndios, os bombeiros e proteção civil poderão saber se estes percursos são utilizáveis no planeamento das deslocações no terreno, melhorando assim o tempo de resposta. O presente artigo discute como poderá ser concebida uma aplicação web mapping, de código aberto, que permita a partilha, utilização e valorização de dados relativos aos percursos todo-terreno dos praticantes de TTT. Será explicado como a aplicação poderá selecionar e ordenar possíveis trajetos que incluem os trajetos de TTT além das estradas, apresentando as caraterísticas do terreno de modo a auxiliar a tomada de decisão por membros das corporações de Bombeiros. Será igualmente apresentada a interface atual da aplicação que inclui um mapa dinâmico e um gestor de pontos de referência. Palavras Chave pesquisa de percursos.

Web mapping; percursos todo-terreno;

Abstract Every year hundreds of touristic off-road initiatives are organized, in which participants automatically record the Global Positioning System (GPS) coordinates of the track using handheld devices. Among other are registered the vehicle position, speed, and altitude. This data allows inferring relevant information such as the difficulty of the road and the recommended speed for a variety of scenarios. For instance, during fire-fighting, fire and civil protection can verify if these paths are useful and appropriate for their vehicle, thus improving response time. This article discusses the design of an open source web mapping application that features track sharing and uses those tracks to generate value for other activities. The article explains how the application selects and sorts paths composed by TTT tracks and normal roads, using diverse features to assist the decision making process of institutions such as Fire Department corporations. The current interface of the application is presented and includes a dynamic map and a landmark manager.

I.

INTRODUÇÃO

Os participantes de TTT, por norma, gravam os percursos com recurso a aplicações GPS, que monitorizam informações como a posição, velocidade e altitude, ao longo do percurso. Com a massificação dos dispositivos GPS, os ficheiros de percursos tem vindo a substituir os road books, trazendo vantagens em termos de custos, e conforto do copiloto. Os percursos são geralmente realizados por caminhos de montanha, que frequentemente ficam intransitáveis, devido à queda de árvores, muros de suporte, entre as mais diversas causas. A distribuição destes ficheiros faz-se, atualmente, por meio dos web sites dos clubes de TTT, por correio eletrónico, ou com recurso a sites de partilha de percursos de aventura, onde são colocados juntamente com percursos de BTT, caminhada, escalada, etc. Esta alternativa não é vocacionada para a prática de TTT, em particular, não possuindo informação sobre eventos, nem calendário de eventos futuros. Anualmente, realizam-se no país inúmeras iniciativas TTT, sendo efetuados levantamentos de percursos. Essa informação permite tomar conhecimento do estado dos percursos, como por exemplo, se este se encontra ou não transitável, ou até mesmo saber a velocidade recomendada para cada percurso. Durante os combates a incêndios, as corporações de bombeiros e proteção civil recorrem, com frequência, a estes percursos, pelo que, o conhecimento do estado dos mesmos deverá facilitar o planeamento dos combates a incêndios, e ao mesmo tempo, reduzir a probabilidade de complicações, relativas ao acesso dos veículos. O presente artigo tem como finalidade expor a proposta de dissertação com o tema "Gestão de trajetos fora de estrada". Esta tem como objetivo, o desenvolvimento de uma aplicação do tipo web mapping, de código aberto, que permita a partilha de dados relativos aos percursos todo-terreno, por parte dos membros de clubes TTT, e que essa mesma informação possa ser acedida, em conjunto com funcionalidades que auxiliem a tomada de decisão, por membros das corporações de Bombeiros.

Keywords Web mapping; off-road tracks; path search.

CISTI 2015 | 132

Segue-se a estrutura do artigo. A secção II aborda trabalhos relacionados, desenvolvidos ao longo dos últimos anos, assim como uma proposta de desenvolvimento de uma aplicação direcionada ao turismo, com planeamento de percursos. A secção III descreve as tecnologias mais relevantes a considerar para a aplicação a desenvolver e a secção IV descreve a arquitetura do sistema, a interface do utilizador, e apresenta considerações sobre os critérios de pesquisa de dados. Finalmente a secção V conclui o artigo. II.

TRABALHOS RELACIONADOS

Ao longo dos últimos anos, foram desenvolvidos diversos trabalhos, os quais propõem ou demonstram aplicações que permitem a partilha e gestão e disponibilização de percursos obtidos por GPS, e utilização desta informação para determinar rotas otimizadas, aplicando critérios de decisão simples ou múltiplos. Entre outras finalidades, existem aplicações destinadas à partilha, disponibilização e planeamento de percursos cicláveis [1] e pedestres [2], assim como planeamento de rotas para veículos, de acordo com diversas finalidades, como por exemplo, transporte de variados tipos de cargas [3], ou determinação de caminhos mais rápidos ou mais agradáveis para automobilistas [4]. Até ao momento, não se encontram documentados trabalhos que apliquem estas funcionalidades ao cenário particular dos percursos Todo Terreno. No entanto, algumas destas funcionalidades podem ser reaproveitadas para a aplicação aqui proposta. Teslya [5] descreve a implementação de serviços web mapping para a disponibilização de um guia turístico móvel, o qual pretende disponibilizar informações compreensíveis e atualizadas, utilizando-as na tomada de decisões relativas ao planeamento de percursos durante uma viagem. Para além disto, é feita uma comparação entre alguns serviços de web mapping conhecidos, ferramentas de processamento de informação geográfica, renderização de mapa com a respetiva informação adicional, assim como ferramentas de planeamento de percurso e geocoding. A aplicação Cyclevancouver, descrita em [1], permite efetuar planeamento de percursos cicláveis através de critérios de decisão compensatórios [6] [7], por forma a permitir que o utilizador encontre percursos que satisfaçam as suas preferências, para além de se limitar a encontrar o caminho mais curto. A utilização de dados GPS recolhidos por veículos para definir parâmetros aplicáveis na pesquisa de percursos, como por exemplo, a velocidade média das vias é abordada por Letchner et al [4], assim como a utilização de um histórico de percursos efetuados por um utilizador, utilizando-o em planeamentos futuros. Holone et al [2] descreve a aplicação de um mecanismo de classificação da rede de percursos, por parte dos utilizadores. Este sistema de classificação permite gerar valores de peso relativos aos segmentos da rede, sendo utilizados para determinar percursos com base na acessibilidade providenciada por estes.

A utilização de um algoritmo maior capacidade é proposta em percursos para veículos de metodologia permite encontrar dimensões do veículo. III.

de pesquisa de caminho de [3], para o planeamento de grandes dimensões. Esta percursos adequados às

TECNOLOGIAS RELEVANTES

Esta secção especifica os serviços e ferramentas de maior relevo a aplicar no desenvolvimento da aplicação, sendo que, até ao presente momento, algumas soluções têm vindo a ser investigadas e testadas. A disponibilização de um mapa como uma base para a aplicação, assim como a pesquisa, disponibilização e manipulação de percursos, ficará a cargo de serviços web, salientando-se os seguintes: Web Map Service (WMS) [8] - Define um mapa como sendo uma representação de informação geográfica como sendo uma imagem representável num ecrã. Não corresponde aos dados, mas a uma representação destes. Web Map Tile Service (WMTS) [9] - Semelhante ao WMS, no entanto, o mapa é dividido em conjuntos de matrizes de imagens adjacentes, imagens estas designadas por tiles, os quais apresentam uma resolução adequada à escala a que dizem respeito. Tile Map Service (TMS) [10] - Trata-se de uma especificação não oficial, equiparada à especificação WMTS, desenvolvida por uma comunidade aberta de participantes. Web Feature Service (WFS) [11] - Permite o acesso direto à informação geográfica, ao nível de elemento, e respetivas propriedades. Os serviços WMS, WFS e WMTS são especificados pela Open Geospatial Consortium (OGC) [12]. A disponibilização no navegador Web da informação proveniente dos serviços acima mencionados é conseguida com recurso a bibliotecas JavaScript desenvolvidas com esta finalidade. Salientam-se as seguintes: OpenLayers - Biblioteca desenvolvida pela comunidade OSM, com finalidade de disponibilizar mapas na página principal do projeto OpenStreetMap. Trata-se de uma biblioteca muito poderosa, que permite configurar todas as propriedades de um mapa. Tem capacidade para disponibilizar tiles carregadas a partir de qualquer fonte, assim como objetos adicionais, tais como marcadores, linhas, polígonos, popups, entre outros [5]. Leaflet - Desenvolvida pela comunidade do projeto CloudMade. Implementa a maioria das funções da biblioteca OpenLayers, possui uma API de fácil utilização, e com uma sintaxe simples. Funciona de forma eficiente sobre a maioria das plataformas desktop e móveis, tirando partido das tecnologias HTML5 e CSS3 nos navegadores Web modernos, sendo também acessível aos antigos [5]. O armazenamento de dados geográficos requer bases de dados com suporte para tipos de dados espaciais, geometrias, por exemplo. Nos sistemas de gestão de bases de dados (SGBD) mais populares, este suporte é garantido através de

CISTI 2015 | 133

extensões, salientando-se a extensão PostGIS [13], que acrescenta suporte tipos de dados espaciais, índices e funções ao SGBD PostgreSQL. Esta extensão herda automaticamente funcionalidades importantes, assim como standards de implementação, do referido SGBD. Este sistema é também capaz de providenciar funcionalidades de pesquisa de caminhos ótimos, com base em grafos pesados, recorrendo-se à extensão pgRouting [5]. O recurso a tecnologias assíncronas de transferência de dados entre cliente e servidor, nomeadamente, Asynchronous JavaScript and XML (Ajax) torna a aplicação mais eficiente, em termos de desempenho, relativamente aos tradicionais pedidos HTTP diretamente ao servidor, em que a aplicação ficava em espera até que o servidor retornasse a resposta. Desta forma, cada ação que gere um pedido HTTP que gera uma chamada em JavaScript ao motor Ajax. Este é capaz de tratar todas as ações que não impliquem comunicação com o servidor. Sempre que for necessário efetuar comunicação com o servidor, esta é feita de forma assíncrona, geralmente em XML, sem qualquer efeito na interação entre utilizador e aplicação [14]. IV.

SISTEMA PROPOSTO

Nesta secção será discutida a arquitetura do sistema proposto, mostrada uma parte da interface do utilizador e explicada a procura e ordenação dos percursos a partir dos critérios de pesquisa dos utilizadores. O sistema tem uma arquitetura modular ilustrada a Figura 1, em que os diferentes serviços envolvidos ficam alojados em unidades distintas, permitindo assim, a distribuição do sistema por múltiplos recursos físicos. Espera-se desta forma, que o sistema apresente alguma capacidade de tolerância a falhas, na medida em que este não fique totalmente inoperacional em caso de falha de problemas técnicos num servidor, assim como um desempenho mais eficaz, relativamente à alternativa de concentrar os serviços no menor número de recursos físicos possível, pois um utilizador poderá efetuar múltiplos pedidos distintos em tempo reduzido.

(OSM), o OSM Tile Server que se trata de uma coleção de programas e bibliotecas que, em conjunto, criam um servidor de tiles. Um servidor Web Apache trata os pedidos provenientes do navegador Web, enviando os para o mod_tile. Este verifica se o tile pedido já se encontra criado, e está disponível para ser utilizado, ou se necessita de ser atualizado, por não se encontrar ainda em cache. Caso se encontre disponível, e não necessite de ser renderizado, então é imediatamente enviado de volta para o cliente. Caso contrário, é adicionado a uma fila de pedidos de renderização. Ao chegar ao topo da fila, um renderizador de tiles, o Mapnik, procede à sua renderização, enviando-o posteriormente para o cliente. Os dados para renderização são armazenados numa base de dados PostgreSQL, criada pela ferramenta osm2pgsql [15]. A pesquisa, disponibilização e manipulação de percursos fica a cargo de um serviço WFS, disponibilizado pelo Geoserver [16], uma ferramenta desenvolvida por uma comunidade de utilizadores de informação geográfica que permite o consumo e publicação de dados geográficos, em diversos formatos padrão da OGC, entre outros. Esta ferramenta estabelece uma ponte entre a base de dados PostgreSQL com extensão PostGIS, que contém a informação geográfica dos percursos. O backend POI Data Provider (POI-DP) fica encarregue de servir a informação relativa aos POIs. Trata-se de uma solução disponibilizada pelo projeto FIWARE [17] destinada à disponibilização de serviços de pesquisa espacial na Web. Utiliza dois SGBD distintos, PostgreSQL com extensão PostGIS, para a informação mais relevante sobre o POI, incluindo a geográfica, e MongoDB. A informação sobre utilizadores e eventos TTT fica assegurada por um servidor Web Apache e uma base de dados PostgreSQL. A utilização de tecnologia de comunicação assíncrona permite enviar dados ao cliente em qualquer altura, não estando dependente dos inputs do utilizador, o que reduz significativamente o atraso na entrega de dados ao cliente [1]. As funcionalidades Ajax são asseguradas pelo recurso à biblioteca jQuery [18], e cobrem os pedidos HTTP e WFS. A exceção corresponde aos pedidos TMS, os quais são realizados através de um método da biblioteca Leaflet. A interface do sistema é desenvolvida com recurso ao framework Bootstrap, o qual permite que a interface seja adaptável às dimensões dos dispositivos móveis. Todas as funcionalidades disponibilizadas pela aplicação estão acessíveis ao utilizador sem que este mude de página, através de painéis colapsáveis, acedidos pela barra de navegação. Os elementos de informação geográfica são interativos e representados sobre a cartografia base, seja com recurso a popups, ou painéis colapsáveis, tal com o ilustrado na Figura 2.

Figura 1 Vista geral da arquitetura da aplicação

A cartografia base é disponibilizada através de um serviço TMS, assegurado por uma solução do projeto OpenStreetMap

Existem dois grupos de utilizadores distintos, com diferentes interesses sobre os dados relativos aos percursos. A pesquisa pode ser feita pela combinação de múltiplos parâmetros, retornando, de forma ordenada, resultados que obedecem aos parâmetros introduzidos, e que se aproximam a estes, pois poderão também ser de interesse. A ordenação é conseguida através da combinação das abordagens de pesquisa, de acordo com o que foi descrito por Malczewski [7].

CISTI 2015 | 134

a pesquisa dos caminhos mais curtos entre dois pontos. O trabalho encontra-se em curso, pelo que os resultados obtidos restringem-se ainda à validação funcional de alguns módulos da aplicação. Em termos de trabalho futuro, após a conclusão do desenvolvimento da aplicação pretendemos construir um protótipo e divulgá-lo junto dos grupos de TTT e assim obter o parecer dos seus membros acerca da usabilidade da mesma. Finalmente pretendemos analisar o desempenho da aplicação e determinar a sua escalabilidade em cenários de aplicação real, de forma a podermos dimensionar uma solução de armazenamento e pesquisa de informação que suporte um número de utilizadores no cenário real.

Figura 2 - Exemplo da interface do utilizador

REFERÊNCIAS

A sequência de eventos associada à pesquisa de percursos por parte de um utilizador desenrola-se conforme ilustrado na figura 3. Este começa por definir os parâmetros de pesquisa, selecionados a partir de opções pré-definidas, submetendo-os de seguida. A interface dá início a um pedido WFS, cuja resposta poderá ser uma de três. Caso ocorra uma falha de comunicação entre a interface e o Geoserver, ou entre este e a base de dados, a interface disponibiliza uma mensagem, contendo a descrição do erro ocorrido.

[1]

[2]

[3]

[4]

[5] [6] [7] [8] [9]

Figura 3 percursos

Sequência de eventos associada à pesquisa de

[10]

Se não existirem resultados que correspondam aos parâmetros de pesquisa, o utilizador recebe uma mensagem a notificar da referida situação. Quando a pesquisa retorna resultados, o Geoserver aplica-lhe um estilo de visualização, e retorna-os à interface, a que gera um overlay interativo, permitindo a visualização dos resultados sobre o mapa. A informação dos percursos aparece também numa lista ordenada de acordo com um dos parâmetros introduzidos na pesquisa. Posteriormente, o utilizador poderá reordenar os resultados segundo outros parâmetros.

[11]

V.

CONCLUSÕES

O presente trabalho que tem vindo a ser modelado e desenvolvido em conjunto com praticantes e clubes de TTT, consiste numa aplicação de Web mapping de trajetos de TTT e dados multimédia, que irá permitir em situações de emergência

[12] [13] [14] [15] [16] [17] [18]

Jason G Su, Meghan Winters, Melissa Nunes, and Michael Brauer. Designing a route planner to facilitate and promote cycling in metro vancouver, canada. Transportation research part A: policy and practice, 44(7):495-505, 2010. Harald Holone, Gunnar Misund, and Hakon Holmstedt. Users are doing it for themselves: Pedestrian navigation with user generated content. In Next Generation Mobile Applications, Services and Technologies, pages 91-99, 2007. Roberto Osegueda, Alberto Garcia-Diaz, Suleiman Ashur, Octavio Melchor, Sung-Ho Chang, Cesar Carrasco, and Ahmet Kuyumcu. Gisbased network routing procedures for overweight and oversized vehicles. Journal of Transportation Engineering, 125(4):324-331, 1999. Julia Letchner, John Krumm, and Eric Horvitz. Trip router with individualized preferences (trip): Incorporating personalization into route planning. In Proceedings of the National Conference on Artificial Intelligence, volume 21, page 1795., 2006. Nikolay Teslya. Web mapping service for mobile tourist guide. In Open Innovations Association FRUCT, Proceedings of 15th Conference of, pages 135-143. IEEE, 2014. Hartwig H Hochmair and Claus Rinner. Investigating the need for eliminatory constraints in the user interface of bicycle route planners. In Spatial Information Theory, pages 49-66. Springer, 2005. Jacek Malczewski. GIS and multicriteria decision analysis. John Wiley & Sons, 1999. Opengis web map service implementation specification. Technical Report 06-042, OGC Open Geospatial Consortium, 2006. Opengis web map tile service implementation standard. Technical Report 07-057r7, OGC - Open Geospatial Consortium, 2010. OSGeo, Tile map service specification, http://wiki.osgeo.org/wiki/Tile_Map_Service_Specification, 20/02/2015. OGC Open Geospatial Consortium. Ogc web feature service 2.0 interface standard - with corrigendum. Technical Report 09, OGC Open Geospatial Consortium, 2014. OGC Open Geospatial Consortium. www.opengeospatial.org, 20/02/2015. Boundless. Introduction to postgis. Acedido em 06/02/2015. Jesse James Garrett et al. Ajax: A new approach to web applications. 2005. SWITCH2OSM, https://switch2osm.org, 06/02/2015. Justin Deoliveira. Geoserver: uniting the geoweb and spatial data infrastructures. 10th International Conference for Spatial Data Infrastructure, St. Augustine, Trinidad, 2008. FIWARE, http://catalogue.fiware.org/enablers/poi-data-provider, 06/02/2015. Eduardo Hideki Tanaka. Design de interfaces web com jquery. 10th Brazilian Symposium on Human Factors in Computing Systems n, pages 29-32, 2011.

CISTI 2015 | 135

Análise de Disponibilidade e Sensibilidade em Serviços de Streaming de Vídeo hospedados em Nuvens Privadas Availability and Sensitivity Analysis in Video Streaming Services hosted on Private Clouds *, Paulo Maciel*,Maria Clara Bezerra*, Jamilson Dantas*, Rubens Matos*, Ivanildo J. de Melo Filho* Fábio Denilson de Oliveira Feliciano e Rosangela Saraiva Carvalho** *Informatics Center, Federal University of Pernambuco, Recife, Brazil Technology of Pernambuco (IFPE), Belo Jardim, Brazil {rmm3, prmm, mcsb, jrd, [email protected]}*,{rosangela.melo, ivanildo.melo, [email protected]} {[email protected]}**

I. Resumo A computação nas nuvens possue uma tecnologia em desenvolvimento que favorece vários serviços de computação e armazenamento através da Internet. Os serviços de multimídia são exemplos de um desses novos serviços que passam a usar essa nova tecnologia. Sobre os serviços de multimídia, destacamos o serviço de streaming de vídeo, onde o usuário poderá acessar os seus vídeos a partir desses ambientes de nuvem com a mesma qualidade praticada em ambientes tradicionais. Neste trabalho, utilizamos os modelos em RBD para encontrar a disponibilidade dos serviços de streaming de vídeos num ambiente de teste montado em laboratório para avaliação do sistema. Análise de sensibilidade foi utilizada para identificar os pontos críticos do sistema com relação a disponibilidade para que seja possível atuar sobre eles e assim melhorar à disponibilidade do sistema. Keywords: Disponibilidade, Análise de Sensibilidade, RBD, Modelos. Eucalyptus. Abstract Cloud computing have one technology development that favor various computing services and storage over the Internet. The multimedia services are examples of these new services will now use this new technology. About the multimedia services, we highlight the streaming video service, where the user can access your videos from these cloud environments with the same quality practiced in traditional environments. In this paper, we used the models to find the RBD availability of streaming video services in a test environment assembled in the laboratory to evaluate the system. Sensitivity analysis was used to identify the critical points of the system with respect to availability so that you can act on them and thus improve the system availability. Keywords: Availability, Sensitivity, Analysis, RBD, Models, Eucalyptus.

INTRODUÇÃO

Cada vez mais, as pessoas procuram otimizar o seu tempo ,em virtude disso elas querem estar conectadas o tempo todo a internet para assim puderem usufruir de vários recursos e serviços disponibilizados pela rede mundial de computadores, dentre estes serviços destacamos o serviço de streaming de vídeo que vem crescendo ao longo do tempo. No passado por volta da década de 90, inicia-se o serviço de streaming de mídia, naquela época assistir a vídeos e ouvir música online nem sempre era interessante ou possível. Os computadores e as conexões à internet eram precários, por isso perdia-se muito tempo tentando baixar arquivos, vídeos e músicas. Além disso, um fator de peso era a baixa qualidade na entrega da informação pelos meios de acesso, por isso que na maioria dos casos os dados não eram nítidos nem para assistir e nem para ouvir. Com o passar do tempo, os recursos de rede e TI (Tecnologia da informação) foram avançando e por consequência o serviço de streaming também evoluíram. Percebemos gradativamente, que o interesse das pessoas por consumir, por exemplo, videos através do Youtube aumentou ao longo do tempo e como consequencia o volume deste tipo de tráfego que passa a ser consumido através da internet também. Esse tráfego de dados é consumido através de redes de acesso fixa ou móveis. Atualmente, com a mobilidade em ascensão a este serviço pode ser acessado através de dispositivos como tablets, smartphones e computadores pessoais. A Computação em Nuvem é um modelo que possibilita o acesso à rede sob demanda através de um conjunto compartilhado de recursos computacionais configuráveis que podem ser rapidamente provisionados e liberados com mínimo de esforço de gestão. Além de fornecer recursos de acordo com

CISTI 2015 | 136

à necessidade, às nuvens podem programar um ambiente sob medida para uma determinada aplicação. Em [1] afirma que uma maneira de distribuir dados de multimidia numa rede através de pacotes denominamos de streaming. Os dados, em streaming, não são habitualmente arquivados pelo usuário que está recebendo o streaming, contudo a mídia normalmente é reproduzida o tempo todo à medida que chega ao usuário se a sua largura de banda for capaz de reproduzir a mídia em tempo real. Para que os usuários possam visualizar os serviços de streaming de vídeo é fundamental que tenha um software de visualização como, por exemplo, o VLC. O VLC mídia player é um framework open source utilizado para reproduzir maioria dos arquivos de multimídia como DVD, CD, VCD e vários protocolos de streaming. Este trabalho avalia a disponibilidade do serviço de streaming de vídeo, além realizar análise de sensibilidade com o objetivo de identificar os componentes mais importantes para a arquitetura e assim propor melhorias futuras para a infraestrutura. A organização deste trabalho foi realizada da seguinte forma: a seção II apresenta os conceitos fundamentais sobre computação nas nuvens, é introduzido informações sobre a plataforma Eucalyptus, bem como é tratado o modelo para análise de dependabilidade e uma descrição sobre a análise de sensibilidade é evidenciada. A seção III traz a arquitetura do sistema, a seção IV discute o modelo proposto. Na sequência a seção V apresenta os estudos de casos e por fim, na seção VI, as conclusões são apresentadas. II.

CONCEITOS FUNDAMENTAIS

A. Computação em Nuvem O sistema de Computação em Nuvem é composto pela junção de recursos virtuais prontamente utilizáveis e acessíveis tais como hardware, software, plataformas de desenvolvimento e serviços. Estes recursos podem ser alocados de forma dinâmica e redimensionados para se ajustarem a uma carga de trabalho variável, possibilitando a otimização do uso dos recursos. Este conjunto de recursos é tipicamente explorado através de um modelo que se paga pelo uso com aval oferecido pelo provedor através de acordos de nível de serviços [ 2]. De acordo com [3], a Computação em Nuvem proporciona uma série de informações em relação às quais os usuários não precisam se preocupar quanto à localização; precisam saber apenas que elas existem e que poderão acessá-las de qualquer lugar do mundo. Os avanços tecnológicos e a necessidade de utilizar grande poder de computação têm ajudado na utilização de tecnologias em Nuvem. A Computação em Nuvem é importante para a distribuição e acesso de recursos de computação, oferecendo algumas vantagens de recursos computacionais como Escalabilidade, Segurança, disponibilidade Estacionária e Confiabilidade. B. Plataforma Eucalyptus Eucalyptus é uma arquitetura de software baseado em Linux que implementa nuvens privadas e híbridas escaláveis e com eficiência. Além disso, o Eucalyptus oferece Infraestrutura como um Serviço (IaaS). Isso significa que os usuários podem provisionar suas próprias coleções de recursos (hardware, armazenamento e rede) através de uma interface de

autoatendimento de acordo com a sua necessidade [4]. O Eucalyptus pode ser implantado sem modificação em todas as principais distribuições do sistema operacional Linux, incluindo Ubuntu, CentOS, openSUSE e Debian. O sistema Eucalyptus é formado por cinco componentes de alto nível da arquitetura Eucalyptus, cada um com seu próprio Web Service: Cloud Controller (CLC), Cluster Controller (CC), Node Controller (NC), Storage Controller (SC), e Walrus [4]. C. Modelos para Analise de Dependabilidade Para [5] confiabilidade é a capacidade que um sistema tem para desempenhar as funções exigidas nas condições estabelecidas por um determinado período de tempo. Dependabilidade é uma propriedade muito importante para um sistema em nuvem uma vez que ela deve fornecer serviços com alta disponibilidade, estabilidade, tolerância a falhas e extensibilidade dinâmica. Como a computação em nuvem é distribuída em grande escala e suas aplicações são acessível em qualquer lugar e em qualquer momento, confiança no sistema de sistemas é cada vez mais importante e mais difícil. A disponibilidade é expressa pela fórmula: A = E [Uptime] / (E [Uptime] + E [Downtime]) (1) D. Análise de Sensibilidade É comum em sistemas termos vários componentes, que não possuem, necessariamente a mesma importância para o desempenho do sistema. Conhecer bem esse sistema e identificar quais são os elementos relevantes é fundamental para o seu desempenho. Nesse sentido a análise de sensibilidade surge para auxiliar na identificação desses componentes importantes para o sistema. A técnica mais simples é escolher um parâmetro para variar repetidamente ao mesmo tempo, mantendo os outros fixo. [7]. Outras técnicas são aplicadas para a realizar de sensibilidade dentre elas podemos incluir planejamento fatorial experimental, análise de correlação, análise de regressão e análise de perturbação (PA). Análise diferencial, também conhecido como análise de sensibilidade paramétrica ou método direto, é a base de quase todos as outras técnicas de análise de sensibilidade [7]. Análise de sensibilidade paramétrica é obtidada através do cálculo das derivadas parciais para as medida de interesse em função de cada parâmetro de entrada. Por exemplo, encontrar a sensibilidade do parâmetro Y, que depende de um parâmetro 2) e (3),

III.

ARQUITETURA E PROPOSTA

A arquitetura utilizada para esse experimento está apresentada na Figura 1. Esta arquitetura de Computação nas Nuvens utiliza a plataforma do Eucalyptus 3.2.2 sobre o CentOs 6.4 com VM Linux, sendo composta pela estrutura física e pela estrutura lógica do lado servidor e pela estrutura lógica do lado cliente. A estrutura física é composta por duas máquinas sendo uma delas utilizada para o Frontend e um para o Nó do sistema Computação nas Nuvens.

CISTI 2015 | 137

A comunicação entre o cliente e o Servidor num Nó da Nuvem, e feita através da rede internet. Dispomos ainda de um volume que está alocado no Frontend, nele armazenamos os vídeos. Entretanto a estrutura lógica: Uma máquina virtual foi instanciada através da máquina do Frontend do Eucalyptus para alocar os aplicativos Apache e o VLC media player. Do lado cliente, utilizamos o aplicativo para exibição do streaming de vídeo VLC. O funcionamento desta arquitetura é iniciada a partir do cliente que faz uma requisição do vídeo ao servidor de streaming de vídeo que por sua vez está localizado numa VM que está localizada na plataforma de Eucalyptus. O servidor busca a mídia codificada no Armazenamento. Se a mídia for encontrada, o servidor retorna a requisição ao usuário, que terá o conteúdo decodificado pelo plugin do VLC. Caso a requisição não seja encontrada no volume, nada é retornado ao usuário.

Para encontrar a disponibilidade do Sistema é necessário conhecer a disponibilidade de cada componente individualmente e depois multiplicar pelo produto de cada um. Para isso detalharemos cada subsistema a seguir. O subsistema Frontend é composto por uma arquitetura não redundante, constituída dos seguintes componentes do eucaliptus: HW (Hardware), SO (Sistema Operacional), CLC (Cloud Controller), CC (Cluster Controller), SC (Storage Controller) e Walrus, representamos esta estrutura através de uma série RBD, conforme mostrado na Figura 3.

Figura 3: Modelo RBD para Subsistema Frontend O subsistema Node é composto pelos componentes Hardware (HW) e Sistema Operacional (SO). Esse modelo possui também um modulo KVM e o componente do Eucalyptus Node Controller (NC). O modelo que representa esse subsistema pode ser visto na Figura 4. Para este modelo, assume-se que hardware e sistema operacional possuem as mesmas características dos modelos apresentados anteriormente para o Frontend, tendo os mesmos valores de taxa de falha e reparo que serão apresentados na Tabela I.

Figura 4: Modelo RBD para Subsistema Node.

Figura 1: Arquitetura do Serviço de Video Streaming. IV.

MODELOS DE DISPONIBILIDADE

A partir do estudo das caracteristicas dos componentes descrito na Secão III, foram criados alguns modelos analiticos para descrever o comportamento do serviço de streaming de vídeo aplicados no sistema de nuvem Eucalyptus, com o objetivo de avaliar a disponibilidade do serviço de streaming de vídeo num sistema de nuvem Eucalyptus. Diagramas de blocos de confiabilidade (RBD) são usados para analisar a confiabilidade da arquitetura apresentada. Representamos a arquitetura do ambiente de estudo através de um modelo hierárquico heterogêneo , composto de um modelo RBD. O modelo RBD representa a arquitetura do sistema em alto nível dos componentes. Do ponto de vista da disponibilidade a arquitetura descrita da Figura 1 pode ser representada através do modelo em RBD da Figura 2. Este modelo é dividido em quatro partes: Subsistema Controlador-Geral (Frontend), Subsistema Node, Volume e Serviço.

Figura 2: Modelo RBD para Serviço de Video Streaming

O subsistema Volume é o responsável pelo armazenamento dos vídeos do sistema. O subsistema Serviço é composto pelos componentes VM (máquina vitual) Aplicativos Apache e VLC. O modelo que representa esse subsistema pode ser visto na Figura 5.

Figura 5: Modelo RBD para Subsistema Serviço. V.

ESTUDOS DE CASO

O estudo de caso está direcionado na análise de disponibilidade do sistema e na identificação dos componentes que mais afetam o serviço de streaming vídeo. Inicialmente, a disponibilidade da Arquitetura (Figura 1) foi avaliada. Na sequência a análise de sensibilidade foi aplicada ao modelo RBD da arquitetura do serviço de streaming de vídeo para todos os componentes do sistema. A partir dessa análise estabeleceu-se uma classificação com todos os componentes mais relevantes do serviço de streaming de video. A. Disponibilidade da Arquitetura A Figura 1 apresenta a arquitetura, que consiste de duas máquinas, em que um atua como Frontend e a outra como Nó.

CISTI 2015 | 138

Tabela I apresentam os parâmetros utilizados no modelo de bloco RBD para os subsistema Frontend, Node, Volume e Serviço com os seus respectivos tempo de falha (MTTF) e tempo de Reparo (MTTR) são derivadas das análises realizadas em [8] e [9]. A disponibilidade de cada módulo pode ser obtida a partir dos valores presentes na Tabela I. TABLE I.

para encontrar os gargalos de desempenho ou disponibilidade em um sistema, orientando, assim, a melhoria e otimização. A Tabela III mostra o ranking de sensibilidade com relação a disponibilidade de todos os parâmetros do sistema. Os resultados são ordenados de acordo com os valores absolutos dos índices de sensibilidade.

PARÂMETROS DE ENTRADA DO MODELO RBD

Modulo

Frontend

Node Volume Serviço

Componente

HW SO CLC CC SC Walrus KVM NC Volume VM VLC Apache

RANKING DE SENSIBILIDADE

Parâmetro

Sensibilidade (Valor)

MTTF

MTTR

8760h 2893h 788.4h 788.4h 788.4h 788.4h

100min 15min 1h 1h 1h 1h

2990h 788.4h

1h 1h

MTTFVolume

9.999900001005009E-6

100000h 2880 336 788.4

1h 1h 1h 1h

MTTRVolume

-9.999900000999994E-6

Estes tempos coletados na Tabela I são inseridos na ferramenta Mercury [10] para cada componente a partir destes dados calcula-se a disponibilidade para cada módulo individualmente: Frontend, Node, Serviço e Volume. MTTF e MTTR de cada módulo são obtidos e disponibilizados como dados de entrada para a Tabela II. Nesta tabela observa-se o valor de MTTF e MTTR obtido a partir da Tabela I. TABLE II.

TABLE III.

Parâmetros de Entrada

MTTFFrontend

0.005338763828499111

MTTRFrontend

-0.005338763828499091

MTTFServiço

0.004286547100579664

MTTRServiço

-0.004286547100579504

MTTRNode

-0.001885072709947385

MTTFNode

0.001885072709947270

O valor absoluto reflete como fortemente os parâmetros influenciam na saída do sistema. Os valores negativos indicam que existe uma relação inversa entre os parâmetros e a (A) foram disponibilidade do sistema. Os valores de calculados com a ferramenta Mercury [10], onde A é a disponibilidade do sistema de estado estacionário e é cada um dos parâmetros do sistema (as taxas de falha e de reparo de cada componente). Os indicadores de sensibilidade também pode ser calculado a partir da equação 6:

PARÂMETROS DE ENTRADA DO MODELO RBD

Componente

MTTF

MTTR

Frontend

180.72

0.96999 h

Node Volume Serviço

481.83 h 100000h 217.77 h

0.91000 h 1h 0.92633h

A disponibilidade para esta arquitetura foi obtida através das equações (4) e (5), com o objetivo de simplificar a fórmula adotamos as letras (f), (n), (v) e (s) que correspondem respectivamente as palavras Frontend, Node, Volume e Serviço. Com este modelo encontramos o valor de 0.9882476 para a disponibilidade do sistema provido pelo serviço de streaming de vídeo, sem considerar redundância aplicada ao sistema. Esta disponibilidade foi obtida através da modelagem individual de cada bloco do modelo da arquitetura básica representada na Figura 1, para isso foi necessário coletar os tempos médios de falha e de recuperação de cada bloco RBD e inserir na ferramenta Mercury descrito anteriormente. B. Análise de Sensibilidade da Arquitetura Para identificar quais os componentes são mais relevantes para o serviço de streaming de vídeo foi utilizada análise de sensibilidade paramétrica. Esta abordagem pode ser usada

As taxas de falha e reparo ( f) e ( ) respectivamente são expressos através das derivadas parciais representadas pelas equações (7) e (8). A derivada para as expressões (An), (Av) e (As) são similares a (Af) desde que todos estes subsistemas são representados por blocos RBD.

Na ferramenta Mercury utilizou-se as fórmulas 7 e 8 que são o resultado da derivada parcial aplicada a equação da disponibilidade apresentada pela equação 5 a todos os componentes da Figura 2, pois tratam-se de blocos RBD. A partir do resultado dessas fórmulas aplicado a todos os blocos obteve-se o ranking de sensibilidade apresentado na Tabela III. Os parâmetros MTTFFrontend and MTTRFrontend possuem os valores mais altos de sensibilidade. Por isso, pode-se afirmar que o Frontend é o componente do sistema que tem o maior impacto sobre a disponibilidade de estado estacionário do sistema completo, e que qualquer alteração nesses parâmetros terá um impacto positivo ou negativo sobre a disponibilidade do sistema.

CISTI 2015 | 139

VI.

CONCLUSÃO

Conforme descrido na introdução deste trabalho, o objetivo do estudo foi estabelecer um modelo capaz de avaliar a disponibilidade da arquitetura do serviço de streaming de vídeo e além de realizar um estudo de análise de sensibilidade nessa infraestrutura a fim de identificar os componentes mais importantes do sistema. Os resultados apontam para uma disponibilidade de 0.9882476 e um downtime de 102.95 horas ao ano, o que sugere a necessidade de adotamos mecanismos de redundância nessa infraestrutura com o objetivo de melhorar a disponibilidade do sistema. Além disso, identificamos que o componente Frontend é um dos componentes mais importante do sistema e que sobre este componente ações podem ser direcionadas com o objetivo de aumentar a disponibilidade do sistema. Como trabalhos futuros serão implementados novos cenários com o apoio de mecanismos de redundância, de modo a averiguar as melhorias apontadas pela análise de sensibilidade na infraestrutura do sistema. REFERÊNCIAS [1]

Teleco. Recurso Radio em GSM/GPRS: GSM. Disponível em: .Acesso em : 4 maio 2014.

[2]

Cardoso, Felipe Cesar, Conceitos de rede virtual privada para streaming

[3]

Giordanelli, Raffaele and Mastroianni, Carlo, The cloud computing paradigm: Characteristics, opportunities and research issues. Istituto di Calcolo e Reti ad Alte Prestazioni (ICAR),2010 Eucalyptus (2010a), Eucalyptus cloud computing platform administrator guide.Technical report, Eucalyptus Systems, Inc. Version 1.6.. Kuo, Way and Zhu, Xiaoyan, I mportance measures in reliability, risk,and optimization: principles and applications 2012 D. M. Hamby, A review of techniques for parameter sensitivity anal-ysis -ment, pp. 135 154, 1994. Matos Junior, Rubens and Guimaraes, Almir and Camboim, Kadna and Maciel, Paulo and Trivedi, Kishor., Sensitivity analysis of availability of

[4] [5] [6] [7]

International Conference on Communication Theory, Reliability, and Quality of Service,2011. [8]

eucalyptus

platform:

An

analysis

of

warm-standy

replication

International Conference on. IEEE, 2012, pp. 1664 1669. [9] IEEE,2009, pp. 365 371. [10] Mercury tool developed by modcs group. Website. Disponível em: . Acesso em: 12 sep. 2014.

CISTI 2015 | 140

Technical and Pedagogical Usability in a virtual learning environment: a case study at the Federal Institute of Rio Grande do Norte

Brazil

André Luis Santos de Pinho1, Francisco Monteiro de Sales Júnior 2, José Guilherme Santa Rosa3, Maria Altina Silva Ramos4 Department of Statistics1, Department of Management and Information Technology 2, Department of Arts3, Institute of Education4 Federal University of Rio Grande do Norte, Federal Institute of Rio Grande do Norte, University of Minho 1,2,3 4 Natal Brazil , Braga Portugal [email protected], [email protected], [email protected], [email protected]

Abstract increasing demands, it is expected that virtual learning environments hold now a better quality design, from linearity to internationally recommended standards, including presentation aspects, interface and interaction modes, which are principles of technical usability, as a quality attribute that comprises methods to improve ease of use. A research is being conducted, aiming to investigate the perceptions of students attending a technical course in the Federal Institute of Education, Science and Technology in Rio Grande do Norte (IFRN), Brazil, regarding technical and pedagogical usability in the learning process. Even though the research is still taking place, the current paper presents the study and the preliminary results so far accomplished that point to the importance of pedagogical usability principles to achieve educational targets. Keywords - technical and pedagogical usability, virtual learning environments (VLE), distance learning

I.

INTRODUCTION

Education governmental policies in Brazil have been regulating article 80 of LDB (law no. 9.394/96), which defines learning with the mediation of systematically organized 1 access to information on public websites, in particular those addressing distance education, has implications in computational infrastructure and interaction, considering that the groups in question present cognitive impairments. As a consequence, the information and educational material should be designed based on a set of guidelines that would orient language simplification and ease of use. The availability and maintenance of information in websites and interactive environments, just like educational ones, need to be designed based on sound principles of and effective use of different levels can be easily made. Principle of usability is a quality attribute that comprises methods to improve ease of use [2]. Nevertheless, while the World Wide Web has become one of the main processes to get and disseminate information

fundamental principles in the design and adoption of its virtual learning environments (VLE). Although the dependence on technical staff trained to publish information has ceased to be an obstacle with the advent of the so-called web 2.0, allowing greater efficiency in the message construction and transmission [3], teachers, participants and people responsible for new interaction processes have not acquired any training in what concerns usability so that collaboration tools might be used with considerable operational emphasis. If, on the one hand, interactivity has naturally followed the unidirectional flow of information, on the other hand, the combination of the technological ability and the essence of the pedagogical dimension was far from straightforward. Therefore, taking into consideration the active role new technologies play in the models of learning and of knowledge [4], its alignment with the new demands and pedagogical approaches is duly required. This paper presents a research on the perceptions of students from a technical course in the Federal Institute of Education, Science and Technology in Rio Grande do Norte Brazil (IFRN), concerning technical and pedagogical usability perceptions both in current practices and environments as well as in a new VLE, in which improvements in technical and pedagogical usability are implemented. It is our goal to assess learning, identifying which dimensions and criteria of technical and pedagogical usability may be relevant as facilitators or barriers in the process of teaching and learning. Despite being still developed, the current paper presents the study and the preliminary results so far accomplished that point to the importance of pedagogical usability principles to achieve educational goals. II.

THEORETICAL FRAMEWORK

A. Technical Usability Usability can be defined as the capability of the software program to be used by specific users to achieve specified goals

CISTI 2015 | 141

with effectiveness, efficiency and satisfaction in a particular context of use [5]. The concept (generic) refers to the ease (or quality) of use, which should not be disregarded considering The technical usability, addressed in the web context, permeates the proper planning and implementation of virtual environments based on an information architecture project, making use of standardization and classic principles of "usability", adjusting the structure to the target public. Several works of literature on the area of technical usability, on different virtual environments, reinforce the indication that users will be entirely satisfied if a website is properly designed and managed, and holds a high degree of usability. Jakob Nielsen presented basic attributes of usability, such as ease of use and learning, efficiency of use, ease of memorization, low error rate and subjective satisfaction. account the user context [6,7]. [8] tested websites usability and measurement of its alignments to definitions, rules and guidelines so that they might be easy to use and to understand, and [9] provided a framework that aimed at analysing and categorizing the Researches that address issues often identify as well, that when visiting a virtual page, users have a set of expectations, anxieties and needs, which are to be removed or satisfied. [10] says that usability is usually considered the ability of the user to successfully use the intented object, whereas user experience takes a broader view, looking at the individual's entire interaction with it, as well as the thoughts, feelings, and perceptions that result from interaction. Others authors presented a goalexpectations, perceptions and factors attraction to websites, making use of forms, protocols and interviews [11,12,13,14]. [15] and [16] introduced the relevance of content management systems defined by a combination of clear aspects, structured formal internal processes and supporting systems architecture, from workflow to other collaboration tools, which, together, help an organization to contribute to information, to collaborate and to control them from the beginning to end. The technical usability context observed in portals should be taken into consideration in distance learning so that the learning process may flow steadily. [17], in the context of virtual learning environments, says that usability is linked to efficiency, which leads to the understanding of the shown content, in order to make the user autonomous and sufficient in its navigation without the need for any support or help or external intervention to perform the task. Nevertheless, similarly to the real society environments, where interaction and relationships are quite normal, successful learning is more dependent on the level of virtual service provided than on initiatives and emerging technologies used for distance teaching. Within this scenario, it is of great importance, therefore, to fully grasp the concept of pedagogical usability.

B. Pedagogical Usability Even though technical usability is a necessary condition in dynamic structures, supported by functional systems that allow a proper management of electronic content, its noncompliance with educational aspects places the learning dimension at a disadvantage. In this context, despite countless new collaboration tools aggregated in VLE, and characterized by particular appropriate content managements, routines and processes related to educational dimensions may still emerge as unstructured, providing a low level learning. The concept of pedagogical usability considered in the studies of [18] at the beginning of the last decade ([19] had presented a sub-concept of utility until then, introducing a conceptual map on technical and pedagogical usability), comes up as subject of further research and reflection. Tervakari et al. (2002) quoting [20] use the term "pedagogical usability" to mean whether the tools, content, interface and tasks of web-based environments meet the learning needs of different learners in various learning contexts according to particular pedagogical goals. It is understood that pedagogical usability might be evaluated in terms of educational environments regarding specific students whose aim is to reach a set of educational goals effectively, efficiently and satisfactorily [5]. [18] points out, still, that pedagogical usability has a severe restricted relation with the assigned task, and the teaching materials should be developed according to the student. The pedagogical usability of a system and / or learning material is given learning situation [21]. [22] established criteria to measure the pedagogical usability of educational materials, based on empirical studies, and presented the following dimensions: control by the learner, learner's activity, collaborative learning, orientation to the objectives, applicability, aggregate value, motivation, value of prior knowledge, flexibility, and feedback. These usability principles (dimensions and criteria) were adopted by [23] in its data collection stage. It provides transformation and change in emergent environments, through social and cognitive mediation aiming at attaining sustainability and pedagogical innovation. This concept is adopted in the context of virtual learning environments and contributes to its success while directing, establishing and adapting criteria to learning situations. It is also associated to the development of didactic teaching materials and the inherent pedagogical process in order to favour learning [24]. [25] use the term rgopedagogy to present systems of hypermedia assessment initiatives that consider both human and ergonomic factors of student interaction with the environment, as well as the pedagogical aspects related to the content, form presentation and didactic and pedagogical strategies. Actually, [26] advocates emerging theories of learning in networked scenarios supporting participatory structures for innovative learning and knowledge creation. Both the nature and demands of globalization processes require new perspectives on learning and developing competences for

CISTI 2015 | 142

inclusion, participation and collaboration on a co-constructed learning process. Hence, pedagogical usability is studied in terms of teaching environments. On the other hand, if web interfaces only use technology to convey instructions, tools use will be reduced into a shorter simpler form, which may change fundamental conceptions and methods of teaching and learning. [27] presented a successful experience in usability evaluation research in order to contribute to the consolidation of the concept of pedagogical usability. The work demonstrated how the use of empirical methods in data collection and analysis can contribute to the improvement of navigational design, providing greater adequacy of the course to the student's profile. Pedagogical usability focuses on providing feedback and reading strategies. In this regard, [28] highlights the importance of providing feedback to students because "timely return can provide greater interactivity between teachers and students." In the same context, [29] have adopted the participatory design model in the development activity of a virtual learning environment, structured according to the principles of ergopedagogy, in order to adapt the environment to the needs of teaching and learning [25]. In the same context, [30] contributes to the pedagogical shift in emerging scenarios of distance education, introducing an approach of models and activities of participation and collaborative mediation in online education and innovation in the digital society, directed at pedagogical change in the scaffolding development of individual and collective social and cognitive representations of learning and knowledge communities and that pedagogical usability deals with the assessment of adequacy of the model to the practices in the emerging nature of open and e-learning education . According to [31], studies on pedagogical usability are still few due to the limited use of digital materials in public schools. Still further, there are few publications that show comparative studies of different evaluation techniques regarding technical usability articulated to pedagogical usability issues. III.

under control, such as age, social status, and specific technical knowledge. The homogeneous groups are subject to two distinct and controlled scenarios related to Virtual Learning Environments, which were set in advance. Regarding the first scenario, students interact in virtual learning environments as currently used and adopted in IFRN, without being observed theories that underpin technical and pedagogical usability. Concerning the second scenario, a second study group is to interact in a learning content-based environment, under suitable conditions involving technical and pedagogical usability, i.e., an improved environment, adjusted to the recommended principles of technical and pedagogical usability. Data will be gathered from knowledge evaluation tests, focus groups, in-depth interviews, observations in loco, and on Moodle Platform. All steps will involve aggregated computing resources, in a controlled environment, such as computers, recording screens, video and audio. An adaptive survey, adjusted to usability principles (dimensions and criteria) provided by [22], [23] and [24], backs data collection phases. The qualitative data will involve content analysis [32] from dimensions and categories resulting from usability literature and categories coming up in the research. This analysis will be supported by Nvivo10 software. At present, we have preliminary evidence resulting from participant observation. Later the students will bring off different scenarios so that their perceptions and comparisons may be confronted between them and between scenarios. IV.

PRELIMINARY RESULTS

Although data analysis is still in a preliminary stage, a projection based on participant observation in the classroom and virtual environment data may already be presented. At this point, the study was pilot tested for the implemented criteria related to the underpinning literature on 'Pedagogical Usability' aspects provided by [22] and [33]. Hence, data

METHODOLOGICAL PROCEDURES

The current study is carried out within a qualitative paradigm and builds on a case study. Its universe is made up of students from a technical course at the Federal Institute of Education, Science and Technology in Rio Grande do Norte (IFRN), Brazil. The sample consists of two classes, a total of forty students, nineteen females, aged 18 to 40, enrolled on the Oil and Gas Course, specifically in the Organizational Management curricular component, in the 2014 fall semester. Being delivered in a b-learning mode, the course also requires a physical on-site presence. Students both interact with the teacher and with each other in a virtual learning environment, in particular in the Moodle Platform, adopted in the Distance Learning Campus of IFRN, Natal - RN. The study deals with the teacher as a researcher. The sample was divided into two study groups for data collection, keeping variables that may interfere with results

problem solving

-categories

Throughout the teaching and learning process other immediate and frequent feedback on tasks undertaken, challenges and reviews, and continuous orientation of tasks carried out in a synchronous environment. Although results are still in embryonic form, the study has proved its wider significance: efforts in pedagogical aspects of usability, and in a virtual learning environment, in the context of distance, seem to have a positive influence over the learning process. New factors and indicators are expected to explain the process of assimilating content effectively (or

CISTI 2015 | 143

ineffectively) in online educational settings, which will provide guidelines for further studies in the area. V.

FINAL CONSIDERATIONS

The fact is that the process being undertaken will provide the institution with findings on the positive and negative aspects regarding the current research on distance education, particularly in what concerns the adopted virtual learning environments. Actually, the study is aimed to improve the institution's courses related to distance education learning model, being thus strengthened as a practical and applied approach, currently considered a positive aspect in researches. The study will also make a scientific contribution to a major global thematic, which is lacking in loco practical investigations, especially in Brazil, where few studies on the subject have still been conducted. The results may contribute to the construction of VLEs in IFRN, in new methods of learning, in preparing learning materials, as well as to identify new dimensions of pedagogical usability, such as those related to the use of virtual social networks. ACKNOWLEDGMENT This work was supported by CIED (Center for Research in Education) byFCT funds (Foundation for Science and Technology), under the PEST - OE project / CED / UI 1661/2014. REFERENCES [1] [2] [3] [4] [5] [6] [7] [8]

[9] [10] [11] [12] [13]

Brasil, MEC. Decreto Decreto nº 2.494, de 10 de Fevereiro de 1998. Secretaria de Educação a Distância. Ministério da Educação. Brasília, 1998. Retrieved from http://edutec.net/Leis/Educacionais/edd2494.htm L. R. Oliveira, A comunicação educativa em ambientes virtuais : um modelo de design de dispositivos para o ensinoaprendizagem na universidade. Braga: Universidade do Minho, 2004. G. Granieri, Geração Blogue. Lisboa: Presença, 2006. H. Assmann, Redes digitais e metamorfoses do aprender. Petrópolis: Vozes Editora, 2005. ISO 9241. Ergonomic requirements for office work with visual display terminals, Part11: Guidance on usability, 1998. J. Nielsen, Usability Engineering. Cambridge, Mass: AP Professional, 1993. J. Nielsen, Projetando websites. Rio de Janeiro: Campus, 2000. P. Alpar, Satisfaction with a Web Site: Its Measurement, Factors, and Correlates. Scheer, A.W. and Nuttgens, M. (Eds.), Electronic Business Engineering, Electronic Bussiness Engineering, 4. Heidelberg: PhisicaVerlag, 1999, pp. 271-287. K. R. E. Huizingh, The content and design of web sites: an empirical study. Information & Management, 37, 2000. T. Tullis, B. Albert, Measuring the user experience: collecting, analyzing, and presenting usability metrics. Burlington: Morgan Kauffman, 2008. M. Marsico, S. expectations. International Journal of Human-Computer Studies, 60, pp. 381-416, 2004. P. Zhang, G. Dran, User Expectations and Ranking of Quality Factors in Different Web Site Domains. International Journal of Electronic Commerce, Winter 2001-2002, 6 (2), pp. 9-33, 2002. C. S. Wan, The web sites of international tourist hotels an tour wholesalers in Taiwan. Tourism Management, 23, pp. 155-160, 2002.

[14] M. Oliveira, Fatores internos de atração: o que adotar no website. In: Anais do 26º Encontro Anual da Associação Nacional dos Programas de Pós-Graduação em Administração, pp. 1-15, 2002. [15] B. Boiko, Content Management Bible. Indianopolis: Wiley Publishing, Inc. 2005. [16] A. Friedlein, Como gerenciar sites Web de sucesso. Rio de Janeiro: Campus, 2003. [17] V. R. Ulbricht, T. Vanzin, Q. Silvia, L. Mariana, R. I. Busarello, Usabilidade e acessibilidade em ambientes virtuais de ensino aprendizagem. In: José Guilherme Santa Rosa. (Org.). Ergo Trip Design. 1ed. Rio de Janeiro: Rio Books, v. 1, pp. 84-96. 2014. [18] R. Vetromille-Castro, A usabilidade e a elaboração de materiais para o ensino de inglês mediado por computador . In Anais do X Congresso Internacional de Educação a Distância. Porto Alegre: ABED, 2003. [19] J. Nielsen, Evaluating Hypertext Usability. In D. H. Jonassen e H. Mandl (eds). Designing Hypermedia for Learning. Berlin: SpringerVerlag, pp. 147-168, 1990. [20] K. Silius, A. M. Tervakaro, S. A. Pohjolainen, Multidisciplinary Tool for the Evaluation of Usability, Pedagogical Usability, Accessibility and informational Quality of Web-based Courses. PEG2003- The Eleventh International PEG Conference: Powerful ICT for Teaching and Learning, 2003. [21] P. Nokelainen, Conceptual Definition of the Technical and Pedagogical Usability Criteria for Digital Learning Material. In L. Cantoni & C. McLoughlin (Eds.), Proceedings of World Conference on Educational Multimedia, Hypermedia and Telecommunications 2004, Chesapeake, VA: AACE, pp. 4249-4254, 2004. [22] P. Nokelainen, An empirical assessment of pedagogical usability criteria for digital learning material with elementary school students. Educational Technology & Society, 9 (2), pp. 178-197, 2006. [23] D.S. Reitz, Avaliação do impacto da usabilidade técnica e pedagógica no desempenho de aprendizes em e-learning. Tese (Doutorado em Informática na Educação) - Centro Interdisciplinar de Novas Tecnologias na Educação. Universidade Federal do Rio Grande do Sul (UFRGS), Porto Alegre, 2009. [24] C. M. Oliveira, Usabilidade de design e usabilidade pedagógica a partir do olhar do aluno em EaD: Uma análise comparativa entre dois ambientes virtuais de aprendizagem. Texto Livre, v. 3, pp. 1-9, 2011. Retrieved from http://periodicos/letras/ufmg.br/index.php/textolivre [25] C. R. Oliveira e Silva, Avaliação de Hipermídias Pedagógicas. In: Ambientes Hipermidiáticos, Pereira, A. T. C.; Santos, N.; Ulbricht, V. R. Rio de Janeiro: Editora Ciência Moderna, 2006. [26] P. Dias, Da e-moderação à mediação colaborativa nas comunidades de aprendizagem. Educação, Formação e Tecnologias, 1(1), pp. 4-10, 2008. Retrieved from http://eft.educom.pt [27] L. C. Agner, Inovação e qualidade do design na educação online: uma contribuição à usabilidade pedagógica. In: 15. Congresso Internacional ABED de Educação a Distância, Fortaleza, CE. Anais do 15 CIAED. São Paulo, SP: ABED, 2009. [28] M. L. O. A. Martins, Inter-relação Entre os Estilos de Aprendizagem, a Usabilidade de Design e a Usabilidade Pedagógica para a Construção da Interface de um Curso Universitário Online: Estudo de Caso. (Dissertação de Mestrado) Erasmus Mundus Euromime Espanha, Portugal e França. 2009. [29] J. Santa-Rosa, M. Struchiner, Design Participativo de um Ambiente Virtual de Aprendizagem de Histologia. Revista Brasileira de Pesquisa em Educação em Ciências, América do Norte, 10, 2011. Retrieved from: http://revistas.if.usp.br/rbpec/article/view/5. [30] P. Dias, Comunidades de educação e inovação na sociedade digital. Educação, Formação & Tecnologias, 5 (2), pp. 3-9, 2012. Retrieved from http://eft.educom.pt [31] E. S. Matos, Dialética da Interação Humano-Computador: tratamento didático do diálogo midiatizado. Tese. São Paulo: USP, 2013. [32] L. Bardin, Análise de Conteúdo. Lisboa: Edições 70, 2004. [33] S. Ssemugabi, Usability Evaluation of a Web-based E-Learning Application: A Study of Two Evaluation Methods. Dissertação de Mestrado em Sistemas de Informação, University of South Africa, 2006.

CISTI 2015 | 144

The impact of data accuracy on user-perceived quality Meryam Belhiah, Bouchaïb Bounabat, Saïd Achchab Laboratoire AL QualSADI, ENSIAS Mohammed V University of Rabat Rabat, Morocco [email protected], [email protected], [email protected] Abstract As business processes have become increasingly automated, data quality becomes the limiting and penalizing customer satisfaction, whether it is an end-user, an institutional partner or a regulatory authority. The available research that is y paid very little attention to the impact of poor data quality on good services delivery and customer satisfaction, and to the calculation of the optimal level of data quality. The aim of this paper is to present a customeroriented approach that will help to understand and analyze how quality of upstream business processes and of data objects in use. This paper also introduces a calculation framework that allows the identification of an optimal level of data quality data accuracy dimension in the case of this paper taking into account Keywords - Business service and process quality; data quality; accuracy; user satisfaction; enterprise architecture.

I.

INTRODUCTION

In a B2B or B2C perspective, maximizing customer satisfaction is a strategic goal for a public or a private organization that provides business services. Minimizing rescissions, rejects and returns have positive impacts on daily operations, cost reduction and financial results.

II.

ENTERPRISE ARCHITECTURE, EA ANALYSIS, AND EA COMPONENTS

A. Enterprise Architecture and Enterprise Architecture Analysis EA allows the business-IT alignment. In other words, it affords a visual representation of the existing relations between an organizational structure, business processes and the Information System. EA can therefore be used as a strategic asset and a tool to manage processes in order to satisfy customer requirements and those of partner organizations and regulatory authorities. If EA modeling provides the structure of an enterprise, its products, operations, technologies and the links among these elements and the surroundings, EA analysis allows a modelbased analysis to evaluate alternative scenarios. It also allows a clear and well-informed decision-making process while taking into account many aspects such as: quality, cost and performance [1]. Many EA modeling graphical tools are available, among them: UML language, TOGAF and Zachman frameworks. Archimate (the Open Groupe) is the most appropriate for EA analysis in the case of this paper because:

Management standards such as ISO 9001 for quality, COBIT (ISACA) for IT governance and ITIL for IT service management do not address the impact of poor data quality on the overall quality of a business service and customer satisfaction. Because business processes have become increasingly automated, data quality is the weakest link in the

It has a broader scope than UML that is more suitable for software engineering;

thus affecting customer satisfaction.

It integrates support for TOGAF and Zachman frameworks.

Since business services are key components in an enterprise architecture (EA), this paper provides an EA based-model to identify the dimensions of data quality that affect a business number of metrics will be associated to these dimensions in ndicator more particularly accuracy in our case -, that takes into consideration the accuracy of execution of upstream business processes and the accuracy of the data in use.

It is particularly adapted to abstract modeling; It allows to easily quantify access, usage relations, etc. of its metamodel;

If needed, other tools and languages can be used such as IPUML [2] or BPMN2.0 [3] for business processes modeling. B. Services, processes, and business objects EA is composed of 3 layers: a business layer, an applications layer and an infrastructure IT layer [4]. The concept of business service is crucial to EA because it is a shared concept among people from different departments in an organization.

CISTI 2015 | 145

Figure 1. Archimate metamodel

A business service is a functionality that a service exposes to its environment, while internal processes are hidden. It has a direct added value to customers. A business service is implemented by one or more automated or semi-automated business processes. A business process is either a unit or composed of many sub-processes. A business object is a set of attributes that represent a piece of information. This information is accessed in reading or writing modes by a process. Business objects generated by a process may serve as entry data to other downstream processes. Because business processes can access business objects in reading or writing modes, it is normal that the quality of the data has a direct execution and vice-versa. III.

DATA QUALITY

The degree to which information consistently meets the requirements and expectations of all knowledge workers who require it to perform their processes [5], what can be summarized by the expres fitness for use 6]. Many researchers tried to establish a classification of data quality dimensions. Below, Pipino et al have identified 15 dimensions [7a]:

Measurable metrics were then defined to score each dimension. IV. EA MODEL-BASED ANALYSIS FOR ASSESSMENT OF BUSINESS QUALITY A. Archimate metamodel Archimate metamodel allows us to highlight the most relevant entities for our research question: customers (business actors), business services, business processes, business objects, and data objects (see Figure 1). A business actor uses an interface to call and access a business service. A business service is implemented internally by one or more business processes that manipulate entry data to produce a result. Two processes may have access to the same business object. An output data that is produced by a process may be an input data to downstream processes. Archimate metamodel clearly highlights this interdependence and therefore shows how data quality and the quality of execution of business processes affect the overall business services B.

and

The UML activity diagram below (see Figure 2) models the interactions between the customer and the business service provider.

Contextual: value-added, relevance, completeness, timeliness and appropriate amount;

From this diagram, it can therefore be concluded that a successful interaction between the customer and the business service implies:

Intrinsic: accuracy, objectivity;

believability,

reputation

Representational and accessibility: understandability, interpretability, concise representation, accessibility, ease of operations, security.

Service availability: if the customer cannot initiate the request, (s)he will abandon the business service;

All case studies that aimed at assessing and improving data quality, have chosen a subset of data quality dimensions, depending on the objectives of the study [8, 9, 10, 11].

o data completeness: data is not missing and is sufficient to the task at hand,

Service accuracy that is composed of:

CISTI 2015 | 146

o data accuracy: the closeness of results of observations to the true values or values accepted as being true [7b], o process execution accuracy : the accuracy of the process that implements the business service internally; Service on-time delivery: it is the last step and it depends on all the steps upstream.

D. UML class diagram UML class diagram allows us to represent relevant entities to our research problem (for a further implementation): classes, their attributes, methods and relationships among classes (see Figure 3). The remainder of this paper will focus on the accuracy aspect. E. Global business s To start, we will use the accuracy of execution of business processes and the quality of the data they use in order to come up with a macro-function. This function will calculate the here: a business service S is implemented by two business processes P1 and P2; de1 is the input data for P1 and ds1 is the data produced by P1 ; ds1 and de2 are the input data for P2 ; ds2 is the data produced by P2 and the result provided by the business service S. S.accuracy = ds2.accuracy ds2.accuracy=

(1) (2)

P2.execution_accuracy*de2.accuracy*ds1.accuracy ds1.accuracy = de1.accuracy*P1.execution_accuracy

(3)

From the above equations: (1) , (2) , we obtain the equation (4) that allows to calculate the accuracy of the business service S: Figure 2. UML activity diagram

C. Metric for the quality of a business service Generally, to improve quantitative aspects (e.g. cost, performance, quality), it is important to baseline the current levels using measurable metrics. Data quality dimensions and process execution accuracy defined in the previous section may be associated to the measurable items below: Business service availability:

S.accuracy=P2.execution_accuracy* P1.execution_accuracy*de1.accuracy *de2.accuracy

(4)

Where the execution accuracy of a process Pi could be measured as:

This approach can be generalized to the case of a business service S that is implemented by m processes that have n data entries dej. In this case the accuracy of the business service S equals to: (5)

Business service accuracy:

Business on-time service-delivery:

Where k is an integer ranging between 1 and m that represents the total number of accesses by all business processes that implement the business service S.

CISTI 2015 | 147

Figure 3. UML class diagram

In the UML class diagram, it is represented by the attribute number_of_access_to_data in the Business_process class (see Figure 3). F. Recommendation We have established a global indicator of the quality of a business service accuracy in the case of this paper that allows us to measure the actual state (as-is). According to the value of this indicator and to the targeted accuracy level (tobe), two business cases may be considered: The first one is to improve the processes (reengineering, control, etc.) by enhancing their execution accuracy. This is a short term option that is generally less expensive but requires change management because it affects the working methods; The second one is based on the improvement of data quality by determining and analyzing the sources of low quality, such as uncontrolled data acquisition, update problems, etc. Since the automation of business processes guarantees, in a way, the quality of their execution, actions must be directed towards the improvement of the quality of the data used by these processes. High data quality becomes the key to success in the digital era. V.

CONCLUSIONS AND FUTURE WORK

The result of the work accomplished thus far shows that it is impossible to undertake evaluation and optimization actions of business services and processes without considering the data quality. In this paper, only the accuracy of the result of a business service in an EA context was covered. A case study validation is necessary. We are particularly interested in open data as a first application area. Furthermore, and in order to recommend the optimal business case to improve data accuracy and thus, the overall business serv implementing a configurable framework that assesses: the criticality of business processes that uses the data, the value (positive impact) [12] of data accuracy improvement, the cost

of non-quality [13], and the expected cost of data quality improvement activities [14]. According to the values of these indicators, business cases will be built to ensure an optimal data quality improvement, in terms of costs and benefits. REFERENCES [1] [2] [3] [4]

[5] [6] [7] [8]

[9] [10] [11] [12] [13] [14]

Lankhorst, Marc. "Enterprise Architecture at Work: Modelling, Communication and Analysis". Springer, 2013. Batini, C., and M. Scannapieco. "Data Quality Concepts, Methodologies and Techniques". Springer, 2006. Allweyer, Thomas. BPMN 2.0: introduction to the standard for business process modeling, 2010. Winter, Robert, and Ronny Fischer. "Essential layers, artifacts, and dependencies of enterprise architecture." Enterprise Distributed Object Computing Conference Workshops, 2006. EDOCW'06. 10th IEEE International. IEEE, 2006. International Association for Information and Data Quality, 2015. http://iaidq.org/main/glossary.shtml#I Wang, Richard Y., and Diane M. Strong. "Beyond accuracy: What data quality means to data consumers." Journal of management information systems, p.5-33, 1996. Pipino, Leo L., Yang W. Lee, and Richard Y. Wang. "Data quality assessment." Communications of the ACM 45.4, p.211-218, 2002. Batini, Carlo, Marco Comerio, and Gianluigi Viscusi. "Managing quality of large set of conceptual schemas in public administration: Methods and experiences." Model and Data Engineering. Springer Berlin Heidelberg, p.31-42, 2012. Otto, Boris, Kai M. Hüner, and Hubert Österle. "Identification of Business Oriented Data Quality Metrics." ICIQ, 2009. Narman, Per, et al. "Enterprise architecture analysis for data accuracy assessments." Enterprise Distributed Object Computing Conference, 2009. EDOC'09. IEEE International. IEEE, 2009. Aladwani, Adel M., and Prashant C. Palvia. "Developing and validating an instrument for measuring user-perceived web quality." Information & management 39.6, p.467-476, 2002. Kokemüller, Jochen. "IQUATE: modeling the causes and impacts of information quality". In International Conference on Information Quality, Haug, A., Zachariassen, F., & Van Liempd, D. "The costs of poor data quality". Journal of Industrial Engineering and Management, 4(2), p.168-193, 2011. Eppler, M., and Markus Helfert. "A classification and analysis of data quality costs." International Conference on Information Quality, 2004.

CISTI 2015 | 148

Sistema de Apoio à Decisão no Combate aos Fogos Florestais no Concelho de Águeda Decision Support System for Forest Fires Firefighting in Agueda Municipality Ana Rita Calvão1, Filipe Carvalho1, Fábio Marques1,2 ESTGA1, IEETA2 Universidade de Aveiro Águeda, Portugal [email protected], [email protected], [email protected]

Resumo O presente trabalho pretende mostrar o desenvolvimento de um sistema de apoio à decisão no combate aos fogos florestais para o concelho de Águeda que assenta fundamentalmente em tecnologias informáticas, em contraste com a dinâmica utilizada atualmente neste concelho. O sistema é constituído por três módulos distintos, uma aplicação WebSIG e duas aplicações para dispositivos móveis (uma destinada aos meios de combate terrestres e outra aos meios de combate aéreos).Uma das maiores preocupações em relação ao sistema é que todos os dados utilizados sejam reais e atualizados, mas também que as principais funcionalidades da aplicação sejam utilizadas em tempo real pelos principais agentes da proteção civil: bombeiros, câmara municipal e guarda nacional republicana. A execução do projeto está ainda numa fase intermédia, no entanto os testes efetuados até ao momento permitem afirmar que o sistema projetado é viável e que se espera que seja uma ajuda efetiva na resolução do problema dos fogos florestais no concelho. Palavras Chave fogos florestias, WebSIG; aplicação para dispositivos móveis; tempo real. Abstract This paper presents a system that is under development to support forest fires fighting in Agueda municipality. This system is mainly based on information technology, in contrast to the dynamic which is currently used in this municipality. The system consists of three separate modules, an WebGIS application and two applications for mobile devices (one for the land vehicles and the other to air vehicles). One of the biggest concerns about the system is that all data used is real and updated, but also that the main features of the application are used in real time by the main actors of civil protection: fire department, city hall and Republican National Guard. The implementation of the project is still at an early stage, however the tests performed so far have revealed that the system is viable and is expected to be an effective help in solving the problem of forest fires in the municipality. Keywords forest fires; WebGIS; mobile applications; realtime.

I.

INTRODUÇÃO

Os incêndios florestais são um dos principais flagelos que assolam o país durante a época de maior calor. Isto tem

consequências a diversos níveis, principalmente ao nível económico e ao nível social, podendo inclusivamente afetar com gravidade as populações locais [1] [2] [3]. Da análise dos relatórios anuais das áreas ardidas e ocorrências de incêndios, entre os anos 2001 e 2012, disponibilizados pelo Instituto da Conservação da Natureza e das Florestas (ICNF), conclui-se que as zonas mais atingidas são, ano após ano, o Norte e a parte Norte Interior do Centro do país, onde se inclui o concelho de Águeda, com cerca de 80% das ocorrências de incêndios no período analisado. A problemática que envolve o combate aos incêndios florestais é quase sempre a mesma e a solução utilizada passa essencialmente pela aquisição de mais meios. A aquisição de meios de combate terrestres e aéreos e a afetação de meios humanos, sem uma ação concertada, pode não ser a melhor resposta a este problema [4] [5]. É muito comum, por exemplo, o desconhecimento do local preciso da origem de um foco de incêndio, assim como a sua acessibilidade: caminhos sem saída, obstáculos intransponíveis para determinado veículo e percursos mais longos do que seria necessário [4]. Assim, e depois do fogo deflagrar, surgem com certeza inúmeras perguntas: Que tipo de combustível está a ser queimado e qual a progressão mais provável do incêndio? Para onde são enviados os bombeiros e com que meios? Esses meios são apropriados ao fogo em questão? Com que estratégia se vai desenrolar o ataque ao fogo? Onde estão os pontos de água mais próximos e como lá chegar? Para que os Bombeiros possam intervir nestas situações, com a prontidão e com a eficácia devida, necessitam de ter um vasto conjunto de informação geográfica atualizado. No entanto, esta informação ou não existe em formato digital, ou está desatualizada ou pertence às Câmaras Municipais. Nem sempre os Bombeiros têm esta informação em tempo útil por diversos fatores que incluem a falta de uma dinâmica de comunicação eficiente entre os vários intervenientes. Neste artigo descreve-se a metodologia que está a ser aplicada no desenvolvimento de um sistema de apoio à decisão no combate aos fogos florestais que vai tirar partido da integração de várias tecnologias que permitem automatizar

CISTI 2015 | 149

vários procedimentos e deverá estar ligado aos principais agentes da proteção civil do concelho: bombeiros, câmara municipal e guarda nacional republicana. II.

O SISTEMA PROPOSTO

Com base no estudo efetuado à metodologia utilizada atualmente e apresentada na secção A, propõe-se o sistema que se descreve nas secções posteriores. A. Dinâmica de atuação atualmente utilizada no combate aos fogos florestais Na Fig. 1 é possível observar o esquema de comunicação, via rádio, utilizado atualmente no concelho de Águeda quando ocorrem incêndios florestais. As setas representam os túneis de comunicação existentes entre os vários elementos no terreno. Resumidamente, quando é recebido na Central de Telecomunicações o alerta de fogo florestal, com a respetiva localização, é dada a saída das viaturas de primeira intervenção e no caso de a situação não ser dominada por esses veículos, são enviados mais meios para o Teatro de Operações (TO). A partir deste momento, normalmente é montado o Posto de Comando das Operações (PCO) na redondeza da ocorrência e a maioria das comunicações passa a ser entre os meios no terreno e o PCO. Quando começam a operar no TO meios aéreos de ataque ampliado, é nomeado um Coordenador de Operações Aéreas (COPAR) que passará a ser o canal de comunicação entre o PCO e os meios aéreos. O comandante que lidera as operações, com o auxílio das cartas da série M888 da Carta Militar, à escala 1:25000 do Exército em formato analógico, das condições atmosféricas (normalmente obtidas através do site do Instituto Português do Mar e da Atmosfera) faz uma previsão empírica de como o fogo se vai propagar (cone de propagação).

Figure 1. Esquema de comunicação atualmente utilizado

Salienta-se o facto de não existir atualmente o uso de informação geográfica com recurso às novas tecnologias, bem como o uso destas para facilitar as operações de supressão neste concelho. B. Descrição do sistema proposto O sistema que se pretende criar é constituído por três módulos distintos: uma aplicação WebSIG, que será o módulo principal e aglutinador de toda a informação; uma aplicação para dispositivos móveis destinada aos meios de combate terrestres e uma aplicação para dispositivos móveis para os meios de combate aéreos. Nos parágrafos seguintes faz-se uma descrição abreviada da dinâmica que se deseja implementar.

Numa primeira fase, depois da receção do alerta de fogo, a interação com o sistema é feita a partir da central dos bombeiros voluntários de Águeda onde o operador, após ter iniciado a aplicação com o seu login, vê filtradas as ocorrências de fogo florestal da base de dados dos bombeiros. Neste momento, a equipa de primeira intervenção já se encontra em trânsito para a zona do alerta, munidos de um dispositivo móvel com uma aplicação que proporciona o acesso a dados geográficos e alfanuméricos sobre a ocorrência e permite, através da utilização conjunta dos sistemas globais de posicionamento disponíveis, enviar a sua localização em tempo real para a central. O operador da central passa a visualizar a localização de todas as viaturas num mapa com toda a informação geográfica disponível e a disponibilizá-la, em função das necessidades, para os veículos de combate. Na fase seguinte, a interação com o sistema pode ser necessária ou não. No caso de as condições das manobras de supressão serem favoráveis e os meios no local conseguirem extinguir o fogo, a interação com o sistema deixa de ser necessária. Por outro lado, caso os meios no local não consigam dominar o fogo, a interação com o sistema continua e pode ser feita a nível da central, ou caso já exista o PCO montado, a interação pode ser feita a partir deste. Nesta etapa, o comandante das operações passa a ter disponível uma ferramenta capaz de efetuar uma simulação da propagação do fogo em tempo real, proporcionando às entidades envolvidas, um cenário antecipado para que se consiga prever situações graves e se possa predispor os meios nas zonas possivelmente afetadas. Em relação ao meio aéreo de primeira intervenção, logo que é dado o alerta, este é acionado para o local. Na maioria das situações é o meio que inicia as manobras de supressão do fogo. O piloto acede a uma aplicação para dispositivos móveis e após fazer login, seleciona a ocorrência correspondente à sua missão. O objetivo é proporcionar-lhe, segundo a sua posição, a localização do posto de abastecimento mais próximo, e todos os outros postos existentes no concelho onde lhe seja possível abastecer, contribuindo assim para a eficácia do combate (quanto mais rápido o meio aéreo abastecer, mais descargas efetua num determinado espaço de tempo). Esta aplicação também mostra alertas de veículos em situação de emergência para que o meio aéreo possa auxiliar no caso de ser autorizado. Por sua vez, o COPAR, terá igualmente o apoio de uma aplicação para dispositivos móveis, para se aperceber das situações graves e poder pedir auxílio ao piloto do meio aéreo. Quando a ocorrência estiver completamente extinta é necessário proceder ao levantamento da área ardida. A entidade responsável por fazer esse trabalho é a Guarda Nacional Republicana (GNR). Está planeada, no sistema, uma área própria que permite à GNR realizar o carregamento de ficheiros GPX com a informação sobre a área ardida em cada ocorrência. Esta informação fica automaticamente disponível.

CISTI 2015 | 150

A Fig. 2 apresenta a arquitetura prevista para o sistema e resume a descrição do mesmo. Neste caso o meio de

Figure 2. Esquema do sistema projetado

comunicação preferencial passa a ser a Internet em detrimento das comunicações via rádio. C. Requisitos do sistema Uma das maiores preocupações é a utilização de tecnologias existentes, impor o menor conjunto de constrangimentos aos procedimentos atuais dos bombeiros no combate aos fogos florestais e disponibilizar a informação essencial em tempo útil para apoio à decisão durante o combate aos fogos florestais. Para tal, é necessário que o sistema verifique o seguinte conjunto de requisitos: (i) Sob um mapa de base do concelho, deve permitir a visualização e edição de temas relevantes incluindo a rede-viária e florestal, estado do terreno e estradas cortadas, pontos de água e suas características, bombas de combustível e a carta de risco; (ii) Deve identificar a posição e a informação sobre a ocorrência de um fogo florestal; (iii) Deve identificar, caracterizar, posicionar e monitorizar o meio envolvido numa determinada ocorrência; (iv) Deve identificar, caracterizar, posicionar e permitir a edição do foco de ignição da ocorrência; (v) Deve permitir a realização de consultas relacionadas: com o estado da ocorrência, pontos de água, pontos de abastecimento de combustível, estado do terreno, posicionamento dos meios em ação; (vi) Deve obter a informação necessária para permitir a simulação da propagação do fogo, e deve simular e disponibilizar a informação sobre a propagação do fogo; (vii) Deve permitir o envio de alertas relativos a: situações de risco de vidas humanas, condições atmosféricas extremas, situações de risco de povoações; (viii) Deve permitir o carregamento de ficheiros em formato GPX para a atualização da informação da área ardida. D. Modelo de Dados O modelo de dados (Fig. 3) que dará suporte ao sistema é composto por um conjunto de dados georreferenciados e que contém informação sobre o relevo na área geográfica do concelho de Águeda (modelo_digital_terreno) e os limites das freguesias, sobre a rede viária (rede_viaria) e as estradas cortadas (estradas_cortadas).

Figure 3. Modelo de dados

As cartas de risco de incêndio florestal (cartas_risco_incendio) servirão para que se possam estabelecer prioridades na prevenção e combate aos fogos. Para que o abastecimento dos veículos seja realizado no espaço de tempo mais curto possível os pontos de água (rpa_agueda) estão identificados e caracterizados. A informação constante nestas tabelas será fornecida pela Câmara Municipal. Para que seja possível realizar a simulação da propagação do fogo, os dados necessários como a ocupação do solo (uso_ocupacao_solo), o modelo de combustível presente na área geográfica do concelho de Águeda (modelo_combustível), ambos fornecidos pela Câmara Municipal, e as condições atmosféricas (con_clima), dados obtidos a partir da informação disponibilizada pelo Instituto Português do Mar e da Atmosfera, também estão presentes. Para permitir um acompanhamento mais real das viaturas que estão no combate ao fogo florestal, as ocorrências (ocorrências) registadas pelos bombeiros estão presentes, bem como os veículos (veiculo) que se encontram a combater o fogo respeitante à ocorrência em causa, esta informação será fornecida pelos bombeiros. Por último, a informação carregada pela GNR sobre a área ardida também será armazenada (area_ardida). E. Implementação O sistema é totalmente implementado recorrendo a tecnologias de código aberto e de livre acesso. O sistema de gestão de bases de dados utilizado é o Postgres, recorrendo-se ao plug-in postgis para dar suporte ao armazenamento e manipulação dos dados com componente geográfica. Para a visualização dos dados geográficos em forma de mapa e em browsers é utilizado o servidor de mapas geoserver. A criação das páginas web é realizada com recurso a diversas tecnologias web (HTML, CSS, Javascript, PHP) e tecnologias SIG, nomeadamente o OpenLayers. Relativamente à aplicação desenvolvida para dispositivos móveis, para além do HTML, CSS e Javascript é utilizado o PhoneGap. Recorre-se igualmente ao SIG Desktop Quantum GIS para manipular, atualizar, corrigir dados para que estes estejam o mais correto possível aquando da sua utilização no TO.

CISTI 2015 | 151

III.

DESENVOLVIMENTO ATÉ AO MOMENTO E RESPETIVOS RESULTADOS

A implementação do modelo de dados para a criação do sistema de apoio no combate aos fogos florestais no concelho de Águeda foi iniciada, mas está ainda em curso faltando, nesta fase, a construção de algumas tabelas e a finalização do preenchimento de outras. Este facto faz com que alguns temas importantes de informação geográfica ainda não estejam disponíveis para visualização e análise. A. Aplicação WebSig A aplicação WebSIG está disponível para cinco tipos de utilizadores diferentes: administrador do sistema; operacional da central dos bombeiros voluntários de Águeda; operacional do meio terrestre, piloto do meio aéreo e militar da GNR. Já é possível visualizar alguns temas de informação (Fig. 4) e interagir com a aplicação dos meios de combate terrestres (Fig. 5).

Figure 6. Interfaces da aplicação móvel para meios terrestres

A cada dois minutos a localização e as informações carregadas na aplicação móvel são reenviados para o servidor e deste para todas as viaturas em combate, para assim se manterem informados do estado da ocorrência e do ponto de situação. Pressionando o botã o utilizador pode visualizar a localização da ocorrência sobreposta, por exemplo, num mapa do Google (Fig. 6 do lado direito). C. Aplicação para dispositivos móveis para os meios aéreos Uma vez que os meios aéreos não estão sujeitos a circular em estradas e se podem deslocar em linha reta, foi implementado um algoritmo que cria um diagrama de Voronoi (a verde na Fig. 7) a partir das localizações dos pontos de água do concelho (pontos azuis na Fig. 7). Sabendo as coordenadas do meio aéreo a aplicação identifica de forma simples o polígono que o contém, assinalando o respetivo posto de abastecimento mais próximo e a rota para o alcançar (Fig. 7).

Figure 4. Interface da aplicação WebSIG

Figure 5. Interface da aplicação WebSIG já com a informação inserida na aplicação móvel do veículo de combate terrestre.

B. Aplicação para dispositivos móveis para os meios terrestres A Fig. 6, do lado esquerdo, mostra a interface inicial da aplicação. O utilizador tem que selecionar a data da ocorrência e a ocorrência e de seguida preencher os dados da viatura. Ao

continua nesta interface a aguardar instruções.

Figure 7. Interface da aplicação móvel para meios aéreos

IV.

CONCLUSÕES

A implementação do sistema encontra-se numa fase intermédia pelo que ainda não foi globalmente testada. Um dos aspetos críticos para a utilização, na íntegra, do sistema proposto é a existência de cobertura de rede móvel, para que os diferentes intervenientes possam comunicar entre si. Quando terminado o desenvolvimento das aplicações será necessário realizar, em articulação com as entidades envolvidas, um conjunto de testes em ambiente real para se conseguir aferir da sua inteira utilidade. No entanto, pelo acompanhamento que tem sido feito ao projeto por parte destas entidades, é

CISTI 2015 | 152

expectável que o sistema venha a contribuir para um apoio efetivo no combate aos fogos florestais do concelho. REFERÊNCIAS BIBLIOGRÁFICA [1] [2]

Nunes, M.C.S., et al., Land Cover Type and Fire in Portugal: Do Fires Burn Land Cover Selectively? Landscape Ecology, 2005. 20(6): p. 661673. Pyne, S., Fogo no jardim: compreensão do contexto dos incêndios em Portugal. Incêndios Florestais em Portugal Caracterização, Impactes e Prevenção. Instituto Superior de Agronomia, Lisboa, 2006: p. 115-131.

[3] [4] [5]

Viegas, D.X., et al., Recent forest fire related accidents in Europe. JRC, Ispra, 2009. Serrano, M. e V. Martins, Sistema de Apoio a Emergências do Parque . 2002, Oeiras. Natural do AlvãoCarvalho, P.A., Modelação do risco de incêndio florestal com redes neuronais artificiais: aplicação ao Parque Natural de Montesinho, in Instituto Superior de Estatística e Gestão de Informação. 2005, Universidade Nova de Lisboa.

CISTI 2015 | 153

A utilização da metodologia de desenvolvimento Extreme Program e RUP para o desenvolvimento de experimentos de Domótica The use of the methodology Extreme Program and RUP to the development of home automation experiments Alexandre Lisboa Pires / David Coelho Brusius

Fretz Sievers Junior

Fatec Mogi das Cruzes Mogi das Cruzes, SP, Brasil

Fatec Mogi das Cruzes, Fatec Mauá, , UMC Universidade de Mogi das Cruzes Suzano, SP, Brasil [email protected]

[email protected] / [email protected]

Resumo Este artigo tem com o objetivo mostrar o uso da metodologia Extreme Program e alguns documentos RUP Rational Unified Process para a criação de experimentos de Domótica em uma residência, visando o baixo custo. O projeto permeia no desenvolvimento de um sistema computacional multi plataforma que pode ser utilizado através de navegadores de Internet atuais e celulares Android, capaz de controlar os recursos básicos de uma residência como iluminação, climatização, sonorização e segurança. Palavras Chave - Domótica; Arduino; automação residencial. This article is aimed to show the use of Extreme Abstract Program methodology and some RUP documents - Rational Unified Process to create Home automation of experiments in a residence , aimed at low cost. The project permeates the development of a multiplatform computer system that can be used by current browsers and Android phones , able to control the basic features of a residence as lighting , air conditioning , sound and security. Keywords - Domotics; Arduino; Domotic.

I.

INTRODUÇÃO

Mediante os avanços tecnológicos e o constante surgimento de novas tecnologias vivenciadas no século XXI, a interação humano-computador está a cada dia mais presente no cotidiano das pessoas. Com isso, a busca pela simplificação das tarefas diárias, tendo como base o uso da tecnologia, está em crescimento exponencial [1], este fato gera o nascimento da automação de uma série de processos tanto em corporações como nas habitações, isto porque o perfil dessas novas tecnologias traz consigo a apreciação pela simplificação de tarefas do dia a dia. Esta revolução no modo como interage-se com os diversos ambientes abre portas para a aplicação da tecnologia no ambiente familiar. Ou seja, a Domótica, ou automação residencial, conduz deste modo um novo nicho de mercado tecnológico, objetivando e tornando conveniente o estudo dessa

área. Para o desenvolvimento do experimentos de Domotica foram utilizados a metodologia Extreme Program e alguns artefatos do RUP Rational Unified Process que ajudaram na obtenção dos requisitos do projeto para a Engenharia de Software. II. DOMÓTICA A Domótica, também conhecida como automação residencial, é uma tecnologia recente que permite a gestão de todos os recursos habitacionais. junção da palavra (electrónica + informática). São estes dois últimos elementos que, quando utilizados em conjunto, agregam valor ao sistema, simplificando a vida diária das pessoas e satisfazendo as suas necessidades de comunicação, conforto e segurança [2]. III.

SISTEMA DE FUNCIONAMENTO

Para que seja possível aplicar a Domótica é necessário abordar um sistema de funcionamento com alguns atuantes de fundamental papel. Esse sistema compõe-se dos seguintes módulos: usuários, infraestrutura de comunicação lógica e física, sensores, agentes de execução, controladores, e por último, porém, o mais importante, o agente de integração [3]. A seguir serão abordados os módulos que compõe o sistema de funcionamento da Domótica: A. Usuários Na Domótica o usuário influenciará no decorrer da utilização do sistema, agindo diretamente em seus futuros comportamentos e ações. Ele é o utilizador do sistema de automação, podendo por exemplo ligar e desligar componentes elétricos e realizar a leitura de dados de sensores. B. Infraestrutura de Comunicação Lógica e Física Uma residência automatizada pode ser gerenciada de diversas formas, mas apenas por meio de duas formas de interação, a interação remota ou a interação local.

CISTI 2015 | 154

A interação local necessita de uma ou mais redes locais (LAN Local Area Network), podendo ser distribuída de forma física, através de cabos, ou pelo ar, através de redes wireless. Na abordagem da Domótica a rede local sempre existirá, pois sua utilização é necessária para a integração e comunicação entre os módulos aqui descritos.

controle de iluminação pode ser feito para diversas finalidades: Garantir que as luzes não fiquem acesas desnecessariamente; Interagir com a sonorização e criar uma harmonia para determinado fim como uma festa; Modificar a quantidade de luzes utilizadas garantindo um melhor aproveitamento da utilização das lâmpadas; Obter a melhor iluminação para determinado situação/ambiente; Auxiliar na saúde ocular das pessoas; Gerar economia de energia.

Já a interação remota se faz pela utilização da Internet, possibilitando a interação com o sistema de automação residencial de qualquer local que possua acesso à rede. C. Sensores Os sensores fazem o papel de identificar o estado do ambiente e dos componentes da residência, coletando dados através de receptores exclusivos para cada finalidade. Esses sensores podem mensurar a temperatura, a luminosidade, avaliar a presença de movimento, conferir biometrias, entre outras variáveis do ambiente. D. Agentes de Execução Os agentes de execução são os aparelhos elétricos, eletrônicos e eletrodomésticos cuja função é desempenhar o papel para o qual ele foi desenvolvido assim que solicitado pelo usuário. Por exemplo, tem-se uma porção desses agentes nas residências, como lâmpadas, aspiradores de pó, climatizadores e ar-condicionado, portões elétricos, televisores, entre outros. E. Controladores Os controladores permitem a interação entre os usuários e os agente de integração e execução, por meio da comunicação de rede ou não. Os controladores podem ser dos mais variados tipos, um controle remoto, um painel digital, interruptores, um computador e os chamados gadgets (dispositivos eletrônicos portáteis). F. Agentes de Integração O agente de integração é a peça fundamental para que a estrutura de automação funcione, pois, é esse componente que realiza a interface entre os sensores e agentes de execução, com o sistema de automação, por meio da infraestrutura de rede, possibilitando que sejam executadas determinadas funções previamente programadas em seu hardware. A função desse componente tão especial pode ser desempenhada por diversos dispositivos, tais como, computadores, placas de prototipagem, micro controladores ou até mesmo componentes eletrônicos de criação independente. IV.

ÁREAS DE ATUAÇÃO

A automação residencial pode interagir com as mais diversas esferas de sítios e seções, conforme a tecnologia evolui, maior torna-se a abrangência da Domótica, permitindo assim que a interação seja feita em mais componentes presentes nas residências. Os tópicos a seguir abordarão os principais setores onde automação tem plena possibilidade de aplicabilidade.

B. Segurança Um dos grandes desafios da Domótica é o desenvolvimento de sistemas de segurança robustos, tanto para exercer ações para controlar o acesso à residência pelos seus moradores, como para proteger contra intrusos. A Domótica torna-se um grande atrativo quando desempenha o aspecto funcional na segurança do imóvel e das pessoas que nele transitam. Voltada para a segurança pode-se: Controlar o acesso de pessoas; Gerenciar sistemas inteligentes de câmeras; Utilizar de recursos de alarme. Tudo isso para evitar um eventual crime, assalto e ou furto e também para que os residentes sintam-se seguros diante da criminalidade. C. Climatização Outra aplicação da Domótica é a automação dos sistemas de climatização, visando a temperatura presentes no ambiente, bem como a aferição de dados referentes à qualidade do ar. Com os dados coletados é possível acionar o dispositivo adequado à situação para que o clima do ambiente fique o mais agradável possível às pessoas. D. Sonorização É possível também aplicar a Domótica em controle de dispositivos que emitam sons, como rádio, televisão, home theater, entre outros. Sempre visando uma melhor sonorização e equalização do som no ambiente, como também o gerenciamento do volume dos aparelhos em certas ocasiões, como quando o usuário receber uma ligação de celular. E. Entretenimento e Mídias Entretenimento é um aspecto de muito interesse para as pessoas e, desde o surgimento dos computadores, sistemas do gênero passaram por grandes avanços, e ainda continuam. Estações de jogos e sistemas de imagem e som são alguns dos pontos de avanço do setor [4]. Neste ponto pode-se citar o gerenciamento dos seguintes equipamentos:

A. Iluminação O controle de iluminação inteligente que a Domótica proporciona é muito bem visto pelo fator Sustentabilidade que gera possibilidades de economia de energia nas residências. O

CISTI 2015 | 155

Televisores; DVD Players; Video Games, entre outros.

V.

MÉTODOS DE DESENVOLVIMENTO

Foram utilizados dois métodos de desenvolvimento de software para este projeto. A. Extreme Programming Extreme Programming (XP) é um método Ágil para equipes pequenas e médias que desenvolvem software baseado em requisitos vagos e que se modificam rapidamente [12]. Foi escolhido em um primeiro momento como processo de desenvolvimento de software o Extreme Programming (XP), por conta de sua forma incremental, ser baseado em requisitos vagos e por ser ideal para equipes pequenas. Adequando-se perfeitamente ao cenário deste trabalho, a utilização deste método de desenvolvimento possibilitou o avanço rápido e guiado pelos testes constantes realizados a cada entrega dos protótipos que por fim integraram-se formando o projeto final. Uma das principais premissas do XP, a programação em par, foi muito explorada e trouxe resultados relevantes para o avanço do projeto. A utilização de apenas um computador para o desenvolvimento e o revezamento entre os programadores tornou-se uma medida crucial para a efetivação do trabalho proposto. Consequentemente a programação em par traz uma qualidade muito superior aos códigos e à aplicação desenvolvida. Mediante a supervisão do segundo programador ao código que está sendo escrito pelo outro, evita-se erros que poderiam ser corrigidos apenas no futuro e poderiam acarretar em diversos riscos para a aplicação. Neste ponto foi adotada uma convenção de realizar os testes exclusivos da versão desenvolvida com a adição de todos os outros testes realizados nas versões anteriores a esta. Esta estrutura garante que o que foi desenvolvido em versões anteriores continue funcionando, e também que as funcionalidades agregadas na nova versão estejam de acordo com o esperado, consequentemente assegura-se a qualidade e valida-se. Por fim a premissa do cliente sempre presente se tornou uma realidade constante no desenvolvimento do sistema, devido dos clientes serem os próprios desenvolvedores do projeto, definindo o que seria implementado e o nível de qualidade exigido para cada entrega. o software desenvolvido. B. Rational Unified Process Posteriormente, com o desenvolvimento do software mais maduro e com os ensaios realizados com a metodologia XP, o método de desenvolvimento adotado foi o Rational Unified Process (RUP), com o intuito de abranger a padronização do software seguindo as regras da Unified Modeling Language (UML). Em um primeiro momento esta metodologia não foi totalmente adotada por conta de sua documentação extensa e principalmente pelo problema a ser solucionado possuir requisitos muitos vagos o que aumenta a chance de mudanças constantes das especificações e necessidades do sistema.

Com o avanço do projeto o planejamento do software baseou-se no método de desenvolvimento RUP abrangendo os diferentes tipos de documentos necessários para parametrização do desenvolvimento do software. VI.

COMPONENTES

A. Micro Controlador Arduino Um Arduino é um pequeno computador que você pode programar para processar entradas e saídas entre o dispositivo e os componentes externos conectados a ele. O Arduino é o que chamamos de plataforma de computação física ou embarcada, ou seja, um sistema que pode interagir com seu ambiente por meio de hardware e software [5]. Para a programação do Arduino utiliza-se uma variação da linguagem C, isto porque é necessário que haja comunicação com os recursos computacionais a todo instante. Tendo isso, a linguagem C perfeitamente atende a essa necessidade da feição de controle da placa, face ainda o fato de ser nativa no sistema computacional do Arduino. Este é o principal componente do projeto, tendo como responsabilidade o gerenciamento dos outros componentes presentes no projeto. B. Protoboard Uma protoboard consiste em uma placa didática composta de uma matriz de contatos que permite a construção de circuitos elétricos experimentais sem a necessidade de efetuar a solda dos componentes. Isso permite que seja efetuado uma série de experimentos com os mesmos componentes inserindo ou removendo os mesmos com rapidez e segurança [6]. A conexão elétrica de todos os componentes ao Arduino será feita através da utilização da protoboard. C. Sensor de Temperatura LM35 O LM35 é um sensor de precisão, fabricado pela Texas Instruments, que apresenta uma saída de tensão linear relativa à temperatura em que ele se encontrar no momento em que for alimentado por uma tensão de 4-20Vdc e GND, tendo em sua saída um sinal de 10mV para cada Grau Celsius de temperatura [7]. O sensor de temperatura LM35 não necessita de qualquer calibração externa ou trimming para fornecer com exatidão, valores temperatura com variações de ¼ºC ou até mesmo ¾ºC dentro da faixa de temperatura de 55ºC à 150ºC. Este sensor tem saída com baixa impedância, tensão linear e calibração inerente precisa, fazendo com que o interfaceamento de leitura seja especificamente simples, barateando todo o sistema em função disto [8]. Este sensor será responsável pela coleta de dados referente à temperatura do ambiente residencial. D. Cooler 5V Um cooler é um componente para dissipação do calor do ambiente em que está instalado. Ele é composto por um dissipador e um ventilador que gira constantemente para remover o calor excessivo do ambiente. O funcionamento se dá através da absorção de calor ambiente pelo dissipador e

CISTI 2015 | 156

posterior giro do ventilador, jogando ar resfriado para o ambiente a fim de obter uma temperatura controlada. Este componente será responsável pela climatização do ambiente. E. Lâmpadas LED O LED ou diodo emissor de luz é um componente eletrônico semicondutor, mesma tecnologia utilizada nos chips dos computadores, tem a funcionalidade de transformar energia elétrica em luz [9]. O LED é um componente do tipo bipolar, ou seja, tem um terminal chamado anodo e outro, chamado catodo. Dependendo de como for polarizado, permite ou não a passagem de corrente elétrica e, consequentemente, a geração ou não de luz [10]. O sistema de iluminação do projeto será feito com a utilização de LEDs. F. Servo Motor Os servos motores são usados em várias aplicações quando se deseja movimentar algo de forma precisa e controlada. Sua característica mais marcante é a sua capacidade de movimentar o seu braço até uma posição e mantê-lo, mesmo quando sofre uma força em outra direção. O servo motor é alimentado com tensões de 5V e recebe um sinal no formato PWM (Pulse Width Modulation). Este sinal é 0V ou 5V. O circuito de controle do servo fica monitorando este sinal em intervalos de 20 ms. Se neste intervalo de tempo, o controle detecta uma alteração do sinal na largura do sinal, ele altera a posição do eixo para que a sua posição coincida com o sinal recebido [11].

B. Experimento 2 Ativar/Desativar Múltiplos LEDs Este experimento foi um complemento do experimento anterior, para que fosse aprendida a forma de utilização da protoboard com a ligação de múltiplos recursos ao Arduino. Foi possível replicar o experimento inicial com múltiplos LEDs. Cinco LEDs foram ligados um após o outro e desligados em seguida, tornando a utilização dos ciclos para o acendimento. Também representou-se um semáforo onde havia três LEDs conectados à protoboard que por sua vez fazia a conexão com o Arduino que possuía e executava o código desenvolvido. Esse código fazia com que a placa ligasse o LED vermelho e apagasse após um período de tempo, no mesmo instante de tempo o LED verde era acionado, simulando a permissão de passagem dos carros, assim como um semáforo real, depois era a vez do LED amarelo com um pouco menos de tempo e depois retornava para o LED vermelho prosseguindo com o ciclo. A Figura 1 apresenta o experimento.

A automação de processos como a abertura de um portão ou de uma cancela permeia na utilização de servos motores. Para que seja possível a movimentação automática do portão ou cancela, delega-se esta função ao servo motor para que o mesmo movimente-se de acordo com a ação necessária. Figura 1

VII. O PROJETO O desenvolvimento do sistema de automação se deu através de experimentos, que no fim agregaram-se, formando o projeto final. A seguir, serão apresentados, de forma sucinta, os experimentos desenvolvidos durante o trabalho até a obtenção da versão final, a qual descreve sobre a maquete representativa construída para exemplificar a utilização da Domótica. A. Experimento 1 Ligar LED Esta foi a etapa inicial das atividades práticas, que resultaram em feitos significativos. Após um período de dois meses de estudos, foi possível avançar até este ponto, cujo resultado permeou no acendimento de um LED e após um intervalo pré-determinado, no caso, cinco segundos, o estado era alterado para desligado, e após um novo intervalo iniciavase o ciclo novamente ligando o LED. Pode-se aprender a realizar as conexões entre o LED e a placa protoboard e o Arduino, também absorveu-se conhecimento na programação do micro controlador.

Experimento ativar e desativar multiplos leds

C. Experimento 3 Utilização do sensor de temperatura Com a aquisição de um sensor de temperatura, modelo LM 35, pode-se trazer à tona mais uma funcionalidade para o escopo, mensurar a temperatura. Com o sensor de temperatura e cálculos matemáticos é possível fazer com que o Arduino calcule a temperatura ambiente do local onde sensor está situado, essa temperatura pode ser obtida em graus Celsius, Fahrenheit e Kelvin. A utilização do sensor propiciou um ganho de funcionalidades ao projeto, assim como os conhecimentos adquiridos para sua implantação devido a sua diferenciação dos outros componentes anteriormente testados, sendo necessárias leituras e cálculos a cada ciclo e um maior controle das informações obtidas pelo sensor. D. Experimento 4 Utilização de um cooler A utilização do cooler simula a função de um ventilador residencial. Sua interação com o Arduino é com uma junção do sensor de temperatura e do LED.

CISTI 2015 | 157

A sua função nessa versão ficou por conta da sua atividade ativa quando a temperatura mensurada no sensor chegasse a 25º Celsius e inativa quando atinge-se 22º Celsius ou abaixo. O desenvolvimento desta etapa envolveu novos conceitos anteriormente não vistos em relação à eletricidade e a potência necessária para que a força motriz do cooler funcionasse corretamente. E. Experimento 5 Utilização da Porta USB O micro controlador Arduino possui uma porta USB (Universal Serial Bus), a mesma que as impressoras modernas utilizam para a comunicação com o computador. Essa porta USB permite estabelecer uma comunicação Serial entre o computador e o Arduino, possibilitando a troca de dados entre os mesmos. Codificou-se um script que instancia um LED e a cada ciclo verifica se foi algum comando foi enviado através da porta USB, dependendo do comando enviado ao Arduino, um comando é executado para alteração de estado do LED (liga ou desliga), conforme sua atual posição, ou seja, uma interação com o meio externo. F. Experimento 6 Utilização de Servlets com porta USB Parte I Nesta etapa foi criada uma página HTML com um formulário simples, a fim de acionar uma Servlet (módulos de código em Java que correm numa aplicação de servidor para responder às solicitações de clientes). A Servlet por sua vez estabelecia uma comunicação Serial com o Arduino pela porta USB e solicitava a execução da mudança de estado de um LED. Foi possível ligar e desligar um LED por meio de uma página HTML, isso fez com que fosse viável determinar para as próximas etapas um valor significativo ao projeto. G. Experimento 7 Utilização de Servlets com porta USB Parte II Baseado na etapa anterior do projeto foi possível fazer uma mesclagem de versões. Incorporou-se LEDs da versão anterior para a representação das lâmpadas dos cômodos de uma residência, o sensor de temperatura, o portão e o cooler simulando um ventilador.

Figura 2

Interface com usuário

H. Experimento 8 Desenvolvimento de aplicação WEB em uma residência Para exemplificação da utilização da automação residencial em uma casa real foi desenvolvido uma aplicação simples que controla uma lâmpada fluorescente, comumente encontrada nas residências. Nesta etapa também aplicou-se o conceito de residência conectada, possibilitando ao usuário gerenciar os estados da lâmpada de qualquer lugar do mundo que possua acesso à Internet. A aplicação desenvolvida para controle da lâmpada foi hospedada em um servidor de aplicação com IP dinâmico, a fim de não gerar custos para a manutenção do site e de um nome de domínio. Para suprir estas questões foi utilizado o serviço de DDNS (Dynamic Domain Name System) da empresa WincoDDNS onde é possível atribuir um nome de domínio, no caso www.arduinofatec.ddns.com.br, à um servidor que possui IP dinâmico. Ao acessar a aplicação pela Internet através do endereço citado é possível controlar a lâmpada de forma simples e com um tempo de resposta muito baixo, cerca de meio segundo, até a efetivação da ação solicitada. A Figura 3 apresenta o experimento.

Além disso foi desenvolvido uma aplicação WEB. Nesta aplicação foram utilizadas diversas tecnologias para que sua utilização fosse a mais simples possível. Pode-se citar algumas das tecnologias utilizadas: HTML, CSS, JavaScript, AJAX, jQuery. Isso resultou na centralização do controle de todos os componentes do projeto, possibilitando o gerenciamento do sistema de automação através de um navegador de Internet. A aplicação desenvolvida foi hospedada em um servidor de aplicação, possibilitando a interação de outros sistemas por meio de requisições HTTP (Hypertext Transfer Protocol). A Figura 2 apresenta a interface que faz interação com o usuário

Figura 3

Aplicação da Domótica em uma residência

I. Experimento 9 Desenvolvimento de aplicativo Android Com o intuito de exemplificar o uso da Domótica em suas diversas formas e em facilidades obtidas na sua aplicação, baseando-se na mobilidade, comodidade e universalidade que aplicativos para smartphones possibilitam, e no avanço das

CISTI 2015 | 158

tecnologias móveis, o desenvolvimento de uma aplicação para a plataforma móvel Android foi aplicado.

falante e um portão, a fim de abranger todos os componentes utilizados no protótipo desenvolvido.

O aplicativo desenvolvido visa facilitar a utilização do protótipo de automação residencial independentemente de acesso à um navegador de Internet em um computador ou até mesmo no próprio celular.

Está foi a última etapa realizada e sua importância se dá por conta da melhor representação do cenário no qual a automação residencial deverá realmente ser implantada. Podese observar que para uma melhor organização e instalação de todos os componentes deve-se pensar na automação residencial desde o projeto inicial de uma casa, adotando todas peculiaridades necessárias para sua aplicação e implantação. A Figura 5 apresenta a maquete desenvolvida.

O aplicativo foi programado para conectar-se diretamente com o servidor de aplicação, por meio do protocolo HTTP, que por sua vez se conecta ao Arduino, que por fim realiza o comando desejado. Uma conexão de transferência de dados é necessária para o seu funcionamento, podendo ela ser local ou remota. O desenvolvimento abrangeu a utilização de diversos recursos e tecnologias presentes na maioria dos smartphones equipados com o sistema Android. É possível citar a utilização de comandos de voz para execução de uma tarefa simples como ligar um LED ou desligá-lo, ou até mesmo realizar a mesma operação por meio de botões presentes na interface principal do aplicativo. A Figura 4 apresenta a interface do experimento

Figura 5

Maquete Desenvolvida

VIII. CONCLUSÃO O processo de desenvolvimento de software o Extreme Programming (XP), foi escolhido pelo seu modelo incremental e ser baseado em requisitos vagos e ideal para equipes pequenas, que foi o caso desse projeto, o qual possibilitou o avanço rápido e guiado pelos testes constantes realizados a cada entrega dos protótipos que por fim integraram-se formando o projeto final.

Figura 4

Atualmente a Domótica ainda é considerada de alto custo, principalmente para a classe média, onde soluções de automação residencial são consideradas artigos de luxo para a maioria, diferente de classes mais privilegiadas, onde a automação anda sendo bem vista e bastante utilizada em residências e edifícios com altos padrões de luxo, onde se aliam tecnologia, conforto e segurança.

Interface do experimento

J. Experimento Final Construção de maquete representativa Após toda integração de software realizada, uma maquete, para melhor representação de uma residência, foi construída. A maquete é composta de cômodos e ambientes que possuem os componentes do trabalho dispostos de uma forma organizada e usualmente utilizada na maioria das residências. Os materiais utilizados para sua montagem foram: madeira, vidro, pregos e parafusos. Foram implantados diversos LEDs que simulam as lâmpadas presentes nos ambientes das casas como também um ventilador, um sensor de temperatura, uma campainha, um alto

Soluções de baixo custo, para a automação de pequenas e médias residências, são alternativas para uma maior difusão da automação residencial na classe média, uma grande consumidora de tecnologias, e que representa cerca de 54% da população brasileira [14]. Com isso a proposta de produzir um sistema de baixo custo para automação de residências com padrões comumente encontrados em habitações da classe média foi o ponto focal para execução de um projeto baseado no envolvimento do menor custo possível para controle de um ambiente residencial de forma automatizada.

CISTI 2015 | 159

A utilização de tecnologias open source e gratuitas atinge a expectativa de diminuir o custo do projeto, sem afetar a qualidade. Assim como o emprego de tecnologias gratuitas com elevado índice de aceitação e com características multi plataforma, diminui o custo de desenvolvimento para diversas plataformas, o que seria necessário se fossem adotadas tecnologias exclusivas de alguns sistemas operacionais. AGRADECIMENTOS A Faculdade de Tecnologia de Mogi das Cruzes, seu corpo docente, direção e administração que apoiaram o desenvolvimento deste trabalho. Ao querido orientador Professor Doutor Fretz Sievers Júnior, pelo suporte, correções e incentivo. Aos nossos incondicional.

pais,

pelo

amor,

incentivo

e

apoio

REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3]

[4]

[5] [6] [7] [8] [9]

AECWEB, 2013, in press. D. S. C Palma, FEUP KNX: Domótica KNX/EIB de baixo custo Universidade do Porto, Faculdade de Engenharia, 2012, p. 13. C. C. L. Freitas, B. D. R. Mesquita, E. Pereira, V. J. C. Farias, Automação Residencial Uma abordagem em relação as atuais tecnologias e perspectivas para o futuro Instituto Federal do Pará, 2010, pp. 3 6. C. C. L. Freitas, B. D. R. Mesquita, E. Pereira, V. J. C. Farias, Automação Residencial Uma abordagem em relação as atuais tecnologias e perspectivas para o futuro Instituto Federal do Pará, 2010, p. 6. ásico Editora Novatec, São Paulo, Brasil, 2011, p. 22. R. Crespi, T. A. C Caxias do Sul, Centro de Ciências Exatas e Tecnologias, 2009, p. 2. Texas Instrum Texas Instruments, 2013. Centro Universitário de Brasília, UniCEUB, 2013, p.20.

de Campinas, 2013, p. 1. [11] Unesp, Servo Motor UNESP Departamento de Engenharia Elétrica, 2013. [12] K. Beck, Extreme Programming Explained: Embrace Change Addison-Wesley Professional, Medford, Oregon, US ed edition. 1999. [13] P. T. Zandoná, P. R. O. Valim, -máquina para [10]

SEGET Simpósio de excelência em gestão e tecnologia, São Paulo, Brasil, 2012, p. 3. [14]

diz

CISTI 2015 | 160

Facebook vs Moodle Surveying university students on the use of learning management systems to support learning activities outside the classroom Luís Mendes Gomes1, Hélia Guerra1, Armando Mendes2, Isabel Estrela Rego3 1

Centro ALGORITMI & Universidade dos Açores, Ponta Delgada, Portugal 2 CEEAPlA, Universidade dos Açores, Ponta Delgada, Portugal 3 CVARG, Universidade dos Açores, Ponta Delgada, Portugal {lmg, helia, amendes,imcer}@uac.pt

Abstract Learning management systems and social networks on Web have been tools most used by students in higher education institutions as learning support tools outside of the classroom. In this paper, we present the results from a survey conducted at a Portuguese university to 159 students in Computer Science and Psychology about the purposes and reasons for the use of Moodle and Facebook. We conclude, among other conclusions, that they complement each other: while the first is mostly used for formal communication with teachers, the second is mostly used for informal communication with peers. Keywords social networks; learning manangement systems; elearning; Moodle; Facebook.

I.

INTRODUCTION

The presence of social media in our daily lives takes an increasingly important role in the way we communicate and, hence, we learn. In higher education institutions, a wide variety of information sources in the learning processes are involved and the students, as digital natives, use a vast set of tools to communicate. Based on our experience as teachers in higher education, we could realize, empirically, that the interest and experience of our students about the use of these tools is diverse. Higher education institutions tend to use learning management systems (LMS), organized as a course-based mode and linked with course enrollment, to develop e-learning programs but also to support the learning activities of regular students outside the classroom. Following the increasing use of Web 2.0 technologies is their adoption for educational purposes through online social networks. Currently, there are hundreds of social networking sites available, being the Facebook the most used, even in academic contexts. It was born in academia and has become so popular among university students that it has formed an important part of their social life. In this paper, we aim to contribute to better understand the role of Facebook and Moodle, as tools of the learning management systems, to support learning activities outside the classroom. To do this, we submit a survey, considering a sample of IT and psychology BSc students, to characterize the use of IT tools, especially Facebook and Moodle. We choose the computer science and psychology courses in view of the expected differences in the use and the frequency

of usage of tools (software and hardware) for the learning activities in higher education system. In this article we begin by presenting a short review of literature on the role of Facebook as a tool to support learning activities in higher education system. Next we introduce our goals and the respective research questions and describe the research method adopted in the study. Finally, we discuss the results, draw some conclusions and make suggestions for further work. II.

LITERATURE REVIEW

The use of learning management systems is a current reality in higher education institutions. The main role of them is to provide support to b-learning programs and support the pedagogical and didactic activities of classroom teaching. Some pedagogical practices in higher education have undergone a significant move toward student-centered and community-based modes of learning [1,2]. The Web 2.0 technologies, which include the so popular social networks on the Web, have incorporate many aspects that enhance the collaboration and the active participation of students in the learning process, assuming a perspective of community-based modes [3]. Generally, students reported positive reaction about the knowledge- and information-sharing benefits of social networks on the Web for educational purposes [4,5,6]. III.

RESEARCH QUESTIONS

Our main goal is to understand the role and relevance of Facebook and Moodle as tools to support learning activities outside the classroom in two courses offered by a small Portuguese higher education institution. The role is associated for what and how they use, and relevance are associated with the frequency for which they use and why. Based on objectives established above, we identified the following research questions: Q1: Do the students use LMS to support learning activities outside the classroom? Q2: How often do students use LMS to support learning activities outside the classroom?

CISTI 2015 | 161

Q3 What are the purposes of using LMS tools in learning activities outside the classroom? Q4 Why do students use learning management systems (LMS) tools in learning activities outside the classroom? Some hypotheses arising from these research questions are presented in the discussion of results section below. IV.

METHODOLOGY

V.

TABLE I. Question

A. Participants Participants in the research were undergraduate students (1st, 2nd and 3rd year) majoring in Computer Science (CS) and Psychology (Psy) at the University of the Azores. 24 students (one female and 13 males from CS, and 10 females from Psy) participated in the first phase of the research (discussion groups). Participants in the second phase (questionnaire) of the study were 159 students: 92 males and 62 females, where 5 were invalid; 76 majoring in CS and 83 in Psy; ages ranging from 17 to 57, with a mode of 25. One hundred and thirty one participants were regular students, twenty were worker students and eight did not answer.

H1.2 Q1

groups, a set of twelve questions was developed and organized into a preliminary version of the questionnaire. After a test of its face validity and the introduction of some corrections a final version was reached containing multi type items organized into two sections pertaining to i) sociodemographic data (major degree; year in the program degree; year of first enrollment; type of student; sex; age) and to ii) technology (use of technological tools; importance attributed to technological tools; use of technological devices; use of Facebook, Moodle or other tools in different learning activities; reasons for using the Facebook, the Moodle or other tools in learning activities, and preference regarding Facebook and Moodle). C. Procedure The process of data collection was conducted in two phases. In the first, students volunteered to be part of one of the four discussion groups 1st year Psy students; 1st year CS students; 2nd and 3rd year Psy students; and 2 nd and 3rd year CS students created to allow students to freely talk about their daily experiences with communication tools and technology in university learning activities. The research team was present in the sessions, prompted students with some questions, helped moderating the discussion and registered the information provided by the group. In the second phase of the data gathering process students of each year of both major degree programs completed the questionnaire in a group session with a mean duration of 15 minutes.

H1.3

H1.4 H2.1 Q2 H2.2 H3.1 Q3

H3.2 H3.3 H4.1 H4.2

Q4

HYPOTHESIS FOR RESEARCH QUESTIONS

Hypothesis H1.1

B. Instrument perspectives and uses of information and communication tools and technology in university learning. Based on the literature in

RESULTS

In this section we present and discuss results from the statistical analysis of data gathered to answered the research questions Q1 to Q4, through the hypotheses shown in the table just below.

H4.3 H4.4 H4.5

Description Students do use the Moodle to support learning activities outside the classroom Students do use other LMS tools beyond the Moodle. Students do use other electronic devices beyond the desktop computer as a hardware tool to learning activities outside the classroom. If the students had to choose one tool to support the learning activities outside the classroom, they would choose. Students do use often the software tools to support the learning activities outside the classroom. Students do use often the hardware tools to support the learning activities outside the classroom The Moodle and the Facebook do complement each other in supporting learning activities outside the classroom The Facebook is used to communicate with peers and the Moodle is used to communicate with teachers. Students sharing and collaboration are transported to the virtual environment. The Moodle is used because it allows formal communication with the teacher. The Facebook is used because it allows informal communication among students. The Facebook is used because its members can be easily found there. Students do use the Facebook because it allows flexibility in the organization and the presentation of content materials. Students do use the Facebook because it allows a synchronous connection with mobile technology.

In this paper, our analysis is mainly focused on two aspects: the purposes for the use of LMS tools and the reasons why students use them. Concerning the purposes, students use the tools to ask questions to teachers, to consult materials (e.g., slides, links, text, etc.) provided by teachers, to contribute to the preparation of documents at different times, to develop documents collaboratively, to send assignments to teachers, to clarify doubts with peers, to share materials (e.g., notes, videos, links) with peers and to receive notifications from teachers.

A descriptive statistical analysis of data was performed using the RStudio of the R package.

CISTI 2015 | 162

TABLE II. Hypothesis H1.1

H1.2

H1.3 H1.4

Figure 1. Relative frequency of different activities.

Thus, we can see that the Moodle favors collaboration in tasks involving students and teachers, while the Facebook favors collaboration among students. However, when the tasks pertain to building learning materials (e.g., group projects, paper writing), students prefer other tools (e.g., a collaboration tool in the Cloud such as Google Drive).

Results 99.4% 100% non-institutional email; 95.0% Facebook; 90.6% institutional email. The least used tools: 13.8% Office 365, and 35.3% knows but does not use; 16.4% OneDrive and 48.4% knows but does not use; 3.8% Google Drive, and 40.9% knows but does not use. 97.5% Notebook PC; 54.7% do not use the Desktop PC; 19.5% of students not using Cellphone; 58.5% do not use the Tablet. 50,3% Moodle; 31,6% Facebook; 9,7% NA; 8,4% other.

From the results on Table II we can see that the answer for Q1 is clearly, yes. Tools like Moodle, Facebook and email are used by almost all students. For these tools the atypical behaviors are the most interesting. From discussion groups we noticed that some students accuse the institutional email of having too much spam, some of them originated by the Moodle notifications. Reasons for not using the Facebook range from it having too many distractions to security. Information technologies are clearly shifting from desktop to notebooks, being other technologies much less used in this sample. Smartphones are also an important tool, but some prefer to reserve it for communication not related to study activities. So, the answers to H1.1, H1.2 and H1.3 are clearly yes. Choosing Moodle, if they could use only one tool, is the most frequent answer for H1.4 but it is important to notice that almost one third choose Facebook and 8% choose others, which are also relevant. TABLE III.

Figure 2. Relative frequencey of the motives to use of the two main tools moodle and facebook.

Observing this chart, we can see that the organization and provision of materials or access to them, and communication with teachers, is favored by the use of the Moodle. On the other hand, informal communication, where there is an opportunity to answer questions and to engage in other types of conversations (e.g., on classes, provision of teachers) is favored by the Facebook.

HYPOTHESIS FOR Q1

HYPOTHESIS FOR Q2

Hypothesis

Results

H2.1

17% institutional email at least 6-7 days, and 30.8% institutional email at least 1 day a week or less. 61.6% non-institutional email at least 6-7 days, and 5% non-institutional e-mail 1 or less days a week. 73% Facebook at least 6-7 days a week, and 5% Facebook 1 or less days per week. 26.4% Moodle at least 6-7 days a week, and 9.4% Moodle 1 or less days per week, the remaining 61% at least 2-3 days and 4-5 days

H2.2

79.2% notebook PC at least 6-7 days a week; 23.3% desktop PC at least 6-7 days a week; 15.7% Tablet at least 6-7 days a week; 59.7% Cellphone at least 6-7 days a week.

Non-institutional email is used with much more frequency than the institutional one. The Moodle is also much less frequently used than the Facebook. These are expected results since students use the institutional email and the Moodle only when they want to find something related to the university work. In fact, their regular communication tools are noninstitutional email and Facebook. We can also confirm that the hardware used are notebooks and smartphones.

In Table II we present a summary of the validation results for the assumptions taken from Q1.

CISTI 2015 | 163

TABLE IV. Hypothesis H3.1

H3.2

H3.3

HYPOTHESIS FOR Q3

VI.

Results See Figure 1 (communication with peers): 72.1% Facebook; 23.7% Other; 4.2% Moodle. (communication with teachers): 60.8% Moodle; 33.1% Other; Facebook 6.0%. 23.7% use the computer tools for the processes of sharing and collaboration.

H3.1 seems to be a clear yes because activities like getting course notes, feedback from teachers, submitting assignments and getting notifications from teachers are done in the Moodle. Other activities, more related with communication with peers, like getting answers from students and sharing course notes are done in the Facebook. Thus, the Moodle and the Facebook complement each other. For H3.3 only 24% use information tools to develop collaborative work. Face-to-face is still the preferred way for group work. TABLE V. Hypothesis

HYPOTHESIS FOR Q4 Results

H4.1

63.8% Moodle; 31.9% Another; 4.2% Facebook

H4.2

73.7% Facebook; 22.8% Another; 3.5% Moodle

H4.3

57.8% Facebook; 30% Another; 12.2% Moodle

H4.4

81.3% Moodle; 11.5% Another; 7.2% Facebook

H4.5

51.8% Facebook; 33.7% Moodle; 14.6% Another

CONCLUSIONS AND FURTHER WORK

We consider a sample of 159 surveys, out of 200 students majoring in Computer Science and Psychology at the University of the Azores. Through a descriptive analysis of the survey results we conclude that: (a) students heavily use LMS tools (software) to support learning activities outside the classroom; (b) the Moodle and the Facebook complement each other in supporting learning activities outside the classroom: while the first is mostly used for formal communication with teachers, the second is mostly used for informal communication with peers; (c) the Moodle is used because it allows students to communicate with teachers; contents are organized by week, modules or theme; they access to materials provided by teachers; the Facebook allows them to talk about everything in a relaxed way; to answers questions quickly; has a notification system. We are preparing an analysis of correlations between several questionnaire variables such as courses and the use of Facebook. We plan to continue this survey in several directions: to extend it to degree programs in other scientific areas; to carry out a similar survey but considering teachers perspective for the role of Facebook and Moodle; to analyze the role of Facebook when compared with alternative Moodle in particular commercial products such as WebCT and Blackboard. ACKNOWLEDGMENT We want to thank our CS and Psy major students for their survey assistance and then in the survey filling. REFERENCES

Hypotheses H4.1 to H4.3 are confirmed by the results obtained by the initial study groups and they confirmed that these are the most important reasons to use the Moodle or the Facebook (see also Figure 2). H4.4 was not confirmed. In fact, flexibility is not favored. Students clearly prefer more traditional ways of organizing information like those used in the Moodle. For H4.5 the answers collected are not conclusive. Some of the comments to the question about which tool to choose, if they could use only one, say, in fact, that the mobile technology is linked to the Facebook, but they are too few to allow drawing a sound conclusion.

[1] [2]

[3] [4] [5] [6]

Deng, L., Tavares, N. J. (2013). From Moodle to Facebook: Exploring experiences in online communities. Computers & Education 68: 167 176. Roblyer, M. D., McDaniel M., Webb, M., Herman J., Witty, J. V. (2010). Findings on Facebook in higher education: A comparison of college faculty and student uses and perceptions of social networking sites. Internet and Higher Education 13: 134 140. Maloney, E.J. 2007. What Web 2.0 can teach us about learning. Chronicle of Higher Education 53, no. 18: B26. Hung, H.-T., and S.C.-Y. Yuen. 2010. Educational use of social networking technology in higher education. Teaching in Higher Education 15, no. 6: 703 14. Wang, Q., Woo H. L., Quek, C. L., Yang, Y., Liu, M.. 2012. Using the Facebook group as a learning management system: An exploratory study. British Journal of Educational Technology 43, no. 3: 428-438. Petrovic, N., Jeremic, V., Cirovic, M., Radojicic, Z., Milenkovic, N.. 2013. Facebook vs. Moodle: what do students Really think? ICICTE 2013 Proceedings: 413-421.

CISTI 2015 | 164

Gestión de las Emisoras de Radio Nacionales de Ecuador en Facebook y Twitter Uso de las principales Redes Sociales del medio radial en Ecuador en tiempos de convergencia

Uses of Social Media Facebook & Twitter by Ecuadorian Radio Management in most important Social network in ecuadorian radios in a convergence time Hernán Antonio Yaguana Docente investigador de la Sección Narrativas Audiovisuales. Departamento de Comunicación. Universidad Técnica Particular de Loja Loja, Ecuador [email protected] Msc. Julia Martínez Vázquez Docente Investigadora Sección Narrativas Audiovisuales. Departamento de Comunicación. Universidad Técnica Particular de Loja Loja, Ecuador [email protected]

María José González Lic. Comunicación Social Universidad Técnica Particular de Loja Loja, Ecuador [email protected] El medio radial actualmente se encuentra inmerso en Resumo un acelerado cambio estructural, impulsado por la irrupción de las nuevas tecnologías de la comunicación e información. La adaptación a las nuevas plataformas digitales demanda una nueva forma de comunicación con la audiencia. Las redes de interacción social son parte fundamental dentro de esta nueva plataforma social, que ha revolucionado el ecosistema mediático, especialmente para los medios de comunicación, los mismos que se encuentran compelidos a utilizar estas herramientas. Esta investigación analiza la gestión de las emisoras de radio de Ecuador con mayor gestión y participación en las principales redes sociales.

Abstract Radio currently is in the middle of a change process, released by new technologies in communication. These new digital spaces supply new relationship with audience and new ways of participation. This research analyses how Ecuadorian radio channels uses new technologies and social Networks in the most important social network. Keywords - Radio; Ecuador; Social network ; Facebook; Twitter

Palabras Clave - Radio; Ecuador; Redes Sociales; Facebook; Twitter

CISTI 2015 | 165

I.

INTRODUCCIÓN

La radiodifusión del siglo XXI en tiempos de convergencia supone una convivencia en el espacio radioeléctrico así como en los entornos digitales. Esta dualidad tecnológica proporciona un nuevo modelo de comunicación en el que los contenidos conviven en plataformas muy distintas, las ondas hertzianas y los espacios digitales. Por este motivo, las dinámicas de uso de los medios se dividen entre ambos protocolos. Este nuevo panorama supone un modelo de actuación de los medios que sobrepasa las fronteras además de marcar nuevos usos, no solo por parte de los emisores sino también por parte de los receptores. Las audiencias han tomado un papel decisivo en este modelo actual de comunicación en el que se finaliza y completa el proceso de comunicación, ya que la retroalimentación o feed back se hace posible. En concreto, en el medio radio, son las redes sociales un espacio de análisis para conocer el estado de este cambio de modelo y de cómo tanto los emisores y los receptores interactúan en el espacio digital en torno a la comunicación radiofónica digital en el caso ecuatoriano.

II.

LA RADIO DEL SIGLO XXI

En este nuevo siglo, con la aparición de las nuevas tecnologías, sobre todo la digitalización cuyos rasgos principales están expresados en la multimedia y la convergencia, la radio vive una nueva etapa en la cual se avizoran algunas ventajas. Investigadores como Meso (2007) sostienen que la digitalización de la radio no es otra cosa que la posibilidad de que la radio crezca, se haga más importante y de mayor calidad. La digitalización se comenzó a plantear desde hace algunos años con los ojos puestos en la transición al tercer milenio, teniendo en cuenta las ventajas que ofrecía la convergencia de medios y soportes (Peñafiel y López, 2002), por tanto, creemos que la radio está viviendo la más grande metamorfosis (Fidler, 1997) cuya característica principal aún no está dada, pues recién va descubriendo algunas de las posibilidades que la Internet puede ofrecerle. En esa inserción de la radio dentro de la digitalización podemos ver algunas prácticas que se vienen suscitando: páginas web de las emisoras, trasmisión de sonido por la Red, audio bajo demanda, radio multimedia, hipersonoridad, multiplicación de señales de audio, audioblogs, wikis sonoras, radioblogs, etc., es todo un ecosistema el que Internet ha creado dentro de la radiodifusión (Cebrián, 2008). Pero más allá de encontrar únicamente un nuevo soporte para difundir contenidos o emisión de datos, lo que la Internet está

implantando es una nueva forma de comunicación, una nueva cultura (Barbero, 2009) que incluso nos hace preguntarnos ¿seguimos hablando de radio o bien estamos ante una nueva forma de comunicación? (Pousa, 2008). Las ventajas que la radiodifusión tradicional obtiene al estar en Internet, además de agregarle nuevas características, le da valor a las que ya poseía: actualidad, expresada en la forma cómo la información que se trasmite por la red puede ser renovada periódicamente; inmediatez e instantaneidad, se define por la velocidad con la cual el medio permite cubrir un hecho noticioso; simultaneidad, porque se pueden trasmitir más de dos eventos a la vez; expresividad, descrita desde la diversidad de formas que se comunica un mensaje; ubicuidad, porque hay la posibilidad de que un mensaje sea direccionado a cualquier lugar y en cualquier momento; adaptabilidad, manifiesta en la forma en que la red permite fragmentar audiencias; e interactividad, considerada como una de la mayores ventajas que Internet añade a la radio(Yaguana, 2012). De todas las características que la radio ha obtenido en Internet, quizá una de las más profundas sea la interactividad, gracias a ella se está cambiando por completo la forma en la que los usuarios acceden a la información y de igual manera como los medios distribuyen sus contenidos. La interactividad se manifiesta a través de los diálogos que establece el medio con la audiencia y viceversa. Se está pasando de una comunicación lineal y mediada a una horizontal y abierta donde el centro ya no es precisamente el medio de comunicación. Los canales abiertos para la conversación entre el emisor y la audiencia en las nuevas plataformas y medios sociales son el centro de una revolución de los públicos, que hacen oír su voz pero, sobre todo, pueden generar contenidos y proponer temas de interés, ayudando a construir la agenda informativa y de opinión de la sociedad (Martínez, 2011: 135).

Este nuevo panorama que nos presenta la radio del Siglo XXI ejerce una fuerte presión para que sean repensadas y analizadas las rutinas de producción y distribución de contenidos. En el primer caso, los equipos de producción deben estructurar contenidos que estén alineados a los intereses mayoritarios de sus audiencias, y a su vez, estar atentos a los contenidos que esas audiencias emiten. En cuanto a la distribución, uno de los caminos que se le pone al frente a la radio por Internet son las redes sociales. La buena gestión de ellas, desde cada programa de la emisora, repercutirá en el éxito o fracaso de la emisora. Gestionar las audiencias desde las redes sociales no sólo permitirá compartir información, también desplegará otras funciones desde la esfera individual como: el apoyo emocional, proporción de contactos, creación de alternativas, experimentación de nuevas ideas, suministro de ayudas prácticas, orientación o posibilidades de formación (Zinmmermann, 2004), lo cual va a crear una relación mucho

CISTI 2015 | 166

más fuerte entre medio y audiencia, a la vez que también fidelidad. Como señala Barbero (2009) hoy es fácil conocer a las audiencias, están allí a vista de todos, en la redes sociales expresan sus estados de ánimo, gustos, disgustos u otros pareceres; simplemente debemos ponernos a analizar esos estados y ofrecerles programas que satisfagan sus necesidades. III.

MATERIALES Y MÉTODO

Se utilizó el método inductivo deductivo con un tratamiento de datos y un procedimiento cuantitativo. La hoja de ruta metodológica se la estableció de la siguiente manera: En primer lugar realizamos un censo para determinar las radios ecuatorianas que tienen presencia en Internet, se El censo nos detectó la presencia de 513 emisoras. Con el universo de emisoras aplicamos una ficha para determinar quienes usan redes sociales para gestionar su programación, obteniendo como resultado 170. Con ellas hicimos una sub selección derivando en 20 las emisoras que mayor participación tienen dentro de las redes sociales de Facebook y Twitter. Para obtener las 20 emisoras realizamos un estudio etnográfico aplicando la semana compuesta. Las fechas de estudio estuvieron comprendidas entre el 2 y el 8 de Febrero de 2015 y las variables que se manejaron fueron las siguientes: número de seguidores, número de perfiles a quienes siguen o perfiles amigos, listas y mensajes publicados. En la investigación se ha contabilizado el uso y los hábitos empleados por los diferentes perfiles de cada emisora de radio, además de la interacción con sus usuarios. Bajo esta premisa se ha contabilizado en el caso de Facebook: número de seguidores, mensajes posteados durante la semana y número de mensajes compartidos por sus usuarios. En el caso de Twitter se realizó la contabilización por el número de seguidores, número de tweets a la semana, su interacción con la audiencia a través de los retweets, la programación más citada y sus locutores. IV.

EMISORAS ECUATORIANAS Y REDES SOCIALES

A. Datos de las emisoras con mayor participación en Facebook. RADIO DISNEY presenta el mayor número de seguidores en Facebook, contando con 3 128.278, lo cual representa el 86,9% de seguidores de la muestra investigada. Este

perfil corresponde a RADIO DISNEY Latinoamérica que cuenta con emisoras de radio en: Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Ecuador, Guatemala, México, Nicaragua, Panamá, Uruguay, Republica Dominicana y Paraguay, con un portal único para todos los países que componen la región; por lo tanto, no se puede determinar el número seguidores de nacionalidad ecuatoriana. En segundo lugar dentro del ranking tenemos LOS 40 PRINCIPALES con 124.366 seguidores que representa el 33.90% del universo investigado. Seguido de HCJB RADIO con 72.267 seguidores, que representa el 2%. En el cuarto lugar tenemos ALFA RADIO con 51. 125 seguidores que representa el 1,42%. Seguido de LA MEGA con 45.210 seguidores que representa 1,25%. En el sexto puesto lo ocupa JC RADIO con 44.554 seguidores que representa 1,23%. A igual que radio VISIÓN CRISTIANA con 44.587seguidores con igual 1,23%. Los últimos lugares de la lista ocupan METRO STEREO con 32. 241 seguidores que representa 0,89%. Seguido de RADIO K1 con 28.778 seguidores que representa 0,79%. Y Por último RADIO ZARACAY (100.5 FM) con 26.441 seguidores que representa 0,73%.

Datos de las emisoras con mayor participación en Facebook.

RADIO DISNEY

LOS 40 PRINCIPALES HCJB RADIO ALFA RADIO JC RADIO VISION CRISTIANA METRO STEREO K1 (92.5 FM) ZARACAY

Gráfico 1: Emisoras representativas en Facebook. Fuente: Elaboración propia

En cuanto a la gestión de las emisoras de radio en Facebook, los resultados se anteponen, ocupando los últimos lugares de la lista, las siguientes emisoras las cuales generan mayor cantidad de mensajes. En primer lugar tenemos LOS 40 PRINCIPALES publica un 33.90% mensajes durante la semana; Seguido de RADIO K1 con 21,10% mensajes publicados. En tercer lugar tenemos ALFA RADIO) con 19,58% de mensajes durante la semana. Seguido por METRO STEREO con 18,46% mensajes divulgados. Estas emisoras generan mayor producción de

CISTI 2015 | 167

mensajes en la red social Facebook diariamente durante el estudio realizado. La emisora HCJB RADIO genera 3,82% de mensajes, seguido de radio LA MEGA con 1,97% mensajes publicados. A continuación tenemos a JC RADIO y VISIÓN CRISTIANA con 0,26% mensajes durante la semana, RADIO DISNEY pese a ser la radio con más seguidores, se encuentra entre las emisoras con menor porcentaje de mensajes publicados con un 0,52% de mensajes, y por último tenemos radio ZARACAY con el 0,13% de mensajes.

Los últimos lugares lo ocupan radio ZARACAY con 0,99%; seguido de RADIO K1 con 0,43%; por ultimo encontramos JC RADIO con 0,06% de mensajes estás emisoras no generan gran actividad en la red social.

LOS 40 PRINCIPALES

1% 4%

2%

0%

K1 (92.5 FM)

0%

20%

0,43%

ZARACAY (100.5 FM)

0,99%

MEGA (103.3 FM)

1,86%

ALFA RADIO (104.1 FM)

2,29%

LOS 40 PRINCIPALES

2,36%

METRO STEREO (106.5 FM)

3,10% 3,41%

RADIO DISNEY (93.7 FM)

METRO STEREO (106.5 FM)

34% 21%

0,06%

K1 (92.5 FM)

ALFA RADIO (104.1 FM)

0%

18%

JC RADIO 107.3 FM

HCJB (690 AM, 3.220 SW, 89.3 FM) MEGA (103.3 FM) RADIO DISNEY (93.7 FM) JC RADIO 107.3 FM VISIÓN CRISTIANA (1.330 AM) ZARACAY (100.5 FM)

Gráfico 2: Mensajes de las emisoras resultados de gestión en Facebook de las emisoras ecuatorianas. Fuente: Elaboración propia.

En cuanto a la participación de los usuarios mediante los mensajes replicados, que obtienen las emisoras de radio. Los resultados son los siguientes: El primer lugar lo ocupa HCJB) con 72% de mensajes compartidos. Pese a no publicar gran cantidad de mensajes, logra gran participación entre sus usuarios. Seguido de RADIO DISNEY con 13,29%, esta emisora pesar de publicar un mensaje al día, este mensaje logra obtener gran retroalimentación dentro de los usuarios. Igualmente pasa con VISIÓN CRISTIANA con 3,41% de mensajes compartidos, a pesar tener un porcentaje corto en la publicación de mensajes, este mensaje logra participación entre los receptores. A continuación tenemos METRO STEREO con 3,10% de mensajes compartidos; Los 40 PRINCIPALES que consigue un 2,36% de participación; Seguido de ALFA RADIO con 2,29%; seguido de RADIO LA MEGA con 1,86% de mensajes replicados. Estas emisoras a pesar de tener gran producción de mensajes en las redes sociales, obtienen menor retroalimentación por parte de los usuarios que participan en la Red. Estas emisoras experimentan en el nuevo fenómeno social y se encuentran en un proceso de ascenso adaptabilidad.

13,29% 72%

Gráfico 3: Participación de los usuarios mediante los mensajes compartidos Fuente: Elaboración propia



B. Datos de las emisoras con mayor participación en Twitter. Respecto a la selección de emisoras con mayor presencia y uso de la red social Twitter, en primer lugar tenemos LA VOZ DE TOMEBAMBA, con 77989 seguidores que representa el 20,55% de la muestra seleccionada. En segundo lugar, encontramos a LA RED ECUADOR con 69.610 seguidores, que corresponde al 18,34%; seguido de CRE SATELITAL, que dispone de 52345 seguidores que representa un 13,79%. A continuación encontramos, JC Radio con 44.539 que corresponde 11,73%; en el quinto lugar tenemos RADIO SUCRE con 37464 seguidores que representa 11.73%. Detrás encontramos, ALFA RADIO, que cuenta con 20945 seguidores que corresponde a 5,51% del total investigado. A continuación tenemos a LOS 40 PRINCIPALES, que cuenta con 20232 seguidores que representan el 5,33%. En el octavo lugar encontramos RADIO CITY con 5,04% dispone de 19137 usuarios que le siguen. El noveno lugar lo ocupa SUPERK 800, tiene 18679 seguidores en Twitter representa el 4,92%. Por último tenemos ONDAS AZUAYAS, con 18516 seguidores en Twitter ocupando 4,87%. Datos de las emisoras con mayor participación en Twitter

CISTI 2015 | 168

ONDA AZUAYAS SUPER K 800 5% 5% RADIO CITY LOS 40 5%

PRINCIPALES ECUADOR 5%

En cuanto a los datos obtenidos respecto a la participación que obtiene las emisoras, nos encontramos con los siguientes porcentajes En primer lugar tenemos SUPER K 800 con un 26,10%, seguido de CRE SATELITAL con 24,89%, en el tercer lugar tenemos LA VOZ DE TOMEBAMBA con 22,23. Seguido de LA RED ECUADOR con 15,06%, el quinto lugar lo ocupa JC RADIO con 2,73%, a continuación tenemos RADIO SUCRE con 2,12%, seguido de ONDA AZUAYAS 1,95%, En los últimos lugares encontramos ALFA RADIO con 1,84%, seguido de LOS 40 PRINCIPALES con 1,64% y por ultimo RADIO CITY con 1,39% el total investigado.

LA VOZ DEL TOMEBAMB A 21%

ALFA RADIO 5% LA RED ECUADOR 18%

RADIO SUCRE 10%

CRE SATELITAL 14%

RADIO CITY

1,39%

LOS 40 PRINCIPALES ECUADOR

1,64%

ALFA RADIO

1,84%

ONDA AZUAYAS

1,95%

RADIO SUCRE

2,12%

JC RADIO 12%

Gráfico 4: Emisoras representativas en Twitter Fuente: Elaboración propia

Tras la recogida de datos para la presente investigación, hemos sacado los resultados referentes a la cantidad de Tweets que las emisoras publican, a la semana. Los resultados quedan de la siguiente manera. SUPER K 800 con 31,13% de los post a la semana, en el segundo lugar tenemos LA VOZ DE TOMEBAMBA con 18,39% del total investigado. Después con un valor cercano al anterior, encontramos LA RED ECUADOR con un 18,28%. El cuarto lugar lo ocupa CRE SATELITAL con un 7,57%, seguido de JC RADIO con un 7,69. En el sexto lugar encontramos LOS 40 PRINCIPALES con 6,10%, el séptimo lugar lo ocupa ALFA RADIO con 4,29%. En los últimos lugares encontramos RADIO CITY 3,90%, seguido de RADIO SUCRE con 1,39% Y ONDA AZUAYAS con 1,28% del total de la muestra investigada. SUPER K 800

4% 6%

4%

2%

1%

LA VOZ DEL TOMEBAMBA LA RED ECUADOR CRE SATELITAL

31%

8%

JC RADIO LOS 40 PRINCIPALES ECUADOR ALFA RADIO

8% 18%

18%

RADIO CITY RADIO SUCRE ONDA AZUAYAS

Gráfico 5: Mensajes de las emisoras durante la segunda semana. Fuente: Elaboración propia

JC RADIO

2,73% 15,06%

LA RED ECUADOR

22,23%

LA VOZ DEL TOMEBAMBA CRE SATELITAL

24,89%

SUPER K 800

26,10%

Gráfico 6: Participación de los usuarios mediante retweets Fuente: Elaboración propia

V.

CONCLUSIONES

A modo de conclusiones podemos citar ciertos aspectos clave tras la recogida de resultados y tras el análisis de la presencia de las redes sociales en las cadenas de radio ecuatorianas. Las emisoras de radio en Ecuador tienen un importante reto en la actualidad, como es gestionar adecuadamente las nuevas herramientas digitales a su servicio. Sin embargo, no se trata únicamente de estar presentes en plataformas como las redes sociales, sino de saber aprovechar las oportunidades que éstas ofrecen. Las 10 emisoras de radio ecuatorianas con mayor participación tanto en Facebook como en Twitter, oscilan entre 50.000 y 70.000 seguidores, solo superdas en este número por Radio Disney que emite en la región latinoamericana y no solo a nivel nacional. El 80% de las emisoras con mayor presencia en Facebook, generan diariamente participación en la red social, además de compartir mensajes propios y recibir retroalimentación de la audiencia. Podemos observar cierta contradiccion por parte de las emisoras con mayor número de seguidores, ya que no son las que generan mayor contenido en la red, al contrario las

CISTI 2015 | 169

emisoras con menos seguidores son las que participan en mayor medida en la producción de mensajes compartidos. Esto altera el panorama, pues al observar la participación de la audiencia podemos ver que las emisoras que menos mensajes producen son las de mayor seguimiento y mayor retroalimentación. Las emiroras en la red social Twitter funcionan de manera diferente a Facebook, pues las emisoras de radio que generan mayor producción de mensajes, son las que obtienen mayor participación, a diferencia de SuperK 800 emisora de la provincia del Guayas, que a pesar de encontrarse en los últimos lugares de seguidores, se encuentra en ascenso pues participa activamente en la creación de mensajes y es la emisora con mayor retroalimentación de la audiencia. En medio es este hibridismo de acciones que se presentan con las redes sociales, los medios de comunicación tradicionales tienen que saber que la gestión ya no viene dada por el todo de la programación de un medio, sino por la individualización de cada programa. Aunque algunas emisoras tienen presencia en ambas plataformas, se ha detectado que las emisoras prefieren alguna red en concreto, ya que los resultados nos muestran una gran diferencia de gestión en una plataforma frente a otra. Este es el caso de por ejemplo, 40 Principales, con mucha más presencia en Facebook que en Twitter. REFERENCIAS BIBLIOGRÁFICAS Barbero, Jesús, Martín. Recobrar el espacio público desde la radio. 9na Bienal de Radio, México 2012. Cebrián Herreros, M. (2008). La radio en Internet. Buenos Aires. La Crujía. Cebrián Herreros, M. (2009). Comunicación interactiva en los cibermedios. Comunicar. Vol. XVII, Núm. 33. España. Grupo Comunicar, 15-24. Edo, C. (2009). Periodismo informativo e interpretativo: El impacto de Internet en la noticia, las fuentes y los géneros. Sevilla. Comunicación Social editores. Fidler, Roger. (1998). Mediamorfosis: comprender los nuevos medios. México: Granica. López Nereida. (2011). La radio se transforma: nuevas tecnologías, nuevos hábitos y nuevos perfiles para el medio más cercano. En Ortiz, M., y López, N. (Eds.). Radio 3.0, una nueva radio para una nueva era: La democratización de los contenidos. (pp. 15-39). Madrid: Fragua. Meso, K. (2007). Radio en línea. En García Jiménez, A.; Rupérez Rubio, P. Aproximaciones al periodismo digital. (pp. 285-320). Madrid. Servicio de Publicaciones Universidad Rey Juan Carlos.

Martínez-Costa , M.P., Moreno Moreno, E., y Amoedo, A. (2012). La radio generalista en la red: un nuevo modelo para la radio tradicional. Anagramas: Rumbos y sentidos de la comunicación, Vol. 10, No. 20, 2012,165-180. Martínez Costa, M.P. (2011). La nueva organización de la producción. En Ortiz, M., y López, N. (Eds.). Radio 3.0, una nueva radio para una nueva era: La democratización de los contenidos. (pp. 123- 140). Madrid: Fragua. Peñafiel, C., López, N. (2002). Claves para la era digital: Evolución hacia nuevos medios, nuevos lenguajes y nuevos servicios. Bilbao. Servicio Editorial de la universidad del País Vasco. Pérez-Luque, M.J. y Perea Foronda, M. (1998). El reto de crear noticias online. Análisis de la comunicación online actual y perspectivas de futuro. Cuadernos de Documentación Multimedia, no 6-7, Madrid: Universidad Complutense. Pousa, Xosé, R. (2008). La digitalización: una oportunidad para cambiar el modelo radiofónico Gallego. En Túnez, Miguel. Emitiendo en digital. Diseños de futuro en radio y televisión. (pp. 113-130). España: Consello Asesor RTVE. Pousa, X & Yaguana, H. (2013). La radio un medio en evolución. Salamanca. Comunicación social, ediciones y publicaciones. Rincón, O. (2006). Narrativas mediáticas: O cómo se cuenta la sociedad del entretenimiento. España. Gedisa. Rodero, E. (2005). Producción radiofónica. Madrid: Cátedra. Salaverría, R., y Cores, R. (2005). Géneros periodísticos en los cibermedios hispanos. En Salaverría, R. (Coord.). Cibermedios: el impacto de Internet en los medios de comunicación en España. (pp. 145-185). Sevilla. Yaguana Romero, H. (2012). El sistema radiofónico online en Ecuador (Tesis doctoral). Universidad Santiago de Compostela. España. Zinmmermann, Arthur. (2004). La gestión de redes: caminos y herramientas. Ecuador. Abya Yala. Los números de las citaciones son automáticos e entre corchetes [1] [2] [3]. A menos que haya seis autores o más se incluyen todos los autores y no utilizan "et al.". Los artículos que no hayan sido publicados deben ser citados como "unpublished" [4]. Los artículos aceptados para publicación deben ser citados como "in press" [5]. Para los artículos publicados en un idioma que no sea inglés, por favor poner la cita en inglés primero seguido de la cita en el idioma original [6]. [1]

integrals of Lipschitz-Hankel type involving products of A247, pp. 529 551, April 1955.

CISTI 2015 | 170

[2]

J. Clerk Maxwell, A Treatise on Electricity and Magnetism, 3rd ed., vol. 2. Oxford: Clarendon, 1892, pp.68 73.

[3]

and H. Suhl, Eds. New York: Academic, 1963, pp. 271 350. [4] K. Elissa,

[5] [6]

, in press.

spectroscopy studies on magneto-optical media and plastic vol. 2, pp. 740 741, August 1987 [Digests 9th Annual Conf. Magnetics Japan, p. 301, 1982]. [7] M. Young, The Technical Writer's Handbook. Mill Valley, CA: University Science, 1989.

CISTI 2015 | 171

A evolução da prestação de cuidados de saúde em Portugal The evolution of health care in Portugal Aníbal Rui dos Santos Magalhães ESTSP/IPP

Esc. Sup. de Tecnologia da Saúde do Porto / Instituto Politécnico do Porto Porto, Portugal [email protected]

As instituições de saúde, ao longo do tempo, têm Resumo sofrido alterações ao nível da gestão e organização dos serviços, com a finalidade de melhorar os cuidados prestados. A reforma dos cuidados de saúde primários (CSP) iniciada em 2005, representa um corte profundo com o passado. O objetivo deste trabalho foi descrever a evolução dos CSP em Portugal com destaque na atual reforma dos CSP, identificar sucessos e insucessos e concluir até que ponto a reforma em curso responde às questões que a motivaram e em que medida, o que foi feito até agora tem contribuído para a melhoria do estado de saúde dos portugueses. As mudanças organizacionais operadas tiveram impacto positivo na eficiência, eficácia, e equidade de acesso aos cuidados de saúde, embora nem todos os objetivos foram plenamente atingidos. O novo modelo organizacional, que pretende garantir a viabilidade sustentabilidade financeira dos CSP, terá que encontrar o equilíbrio na gestão dos recursos disponíveis procurando garantir saúde para todos. Os sistemas de informação permitiram também agilizar os processos. A procura de maior eficiência operacional, poderá passar pelo combate ao desperdício, como forma de reduzir a necessidade de mais recursos financeiros, para o mesmo volume de actividade desenvolvida. Palavras Chave Cuidados de saúde primários; Reforma; Reorganização;Sustentabilidade; Gestão.

Abstract

Health institutions, over time, have changed in the management and organization of services, with the aim of improving health care services. The reform of primary health care (PHC), in 2005, represents a profound break with the past. This reform is based on what health professionals advocate for many years. The aim of this study was to describe the evolution of CSP in Portugal especially in the current reform of the CSP, identify successes and failures and conclude the extent to which the ongoing reform responds to the questions that motivated and to what extent, which so far has been done has contributed to improving the health status of the Portuguese. The organizational changes occurred had a positive impact on the efficiency, effectiveness, and equity of access to health care, although not all objectives were fully achieved. The new organizational model, which aims to ensure the viability financial sustainability of CSP, will have to find the balance in the management of available resources while ensuring health for all. Information systems also

Brígida Mónica Faria ESTSP/IPP

Esc. Sup. de Tecnologia da Saúde do Porto / Instituto Politécnico do Porto LIACC Lab. Int. Artificial e Ciência de Computadores IEETA Inst. Eng. Elect. Telem. de Aveiro e Univ. Aveiro Porto e Aveiro, Portugal [email protected] allowed streamline processes. The search for greater operational efficiency, you can go through combating waste, in order to reduce the need for more financial resources for the same volume of activity developed. Keywords Primary health care; reform; Reorganization; Sustainability; Management.

I.

INTRODUÇÃO

A melhoria da saúde sempre foi considerada um objetivo de qualquer sistema de saúde, tendo um papel extremamente relevante para o desenvolvimento económico de um país ou de uma região. Este trabalho pretende apresentar a evolução da prestação de cuidados de saúde primários em Portugal. Para tal, estudou-se a temática da gestão nestas organizações e práticas associadas, num contexto de mudança com impacto em várias dimensões. Presentemente vive-se num clima de grandes alterações onde surgem constantemente novos conceitos no âmbito da gestão e administração, entre os quais ressaltam temas como competitividade, qualidade, estratégia, sistemas de informação, globalização, entre outros, que mostram novas formas de encarar a sociedade. A modernização da administração pública e a avaliação do desempenho do gestor público têm vindo a assumir importância crescente face ao novo paradigma da gestão pública. A Organização Mundial de Saúde (OMS) preconiza no ponto VI da Declaração de AlmaAta que os Cuidados de Saúde Primários (CSP) devem constituir o primeiro nível de contacto entre os indivíduos e os Sistemas de Saúde. CSP devem ser os cuidados essenciais, postos universalmente ao dispor de indivíduos e famílias de uma comunidade, a um custo que a comunidade e o país possam suportar. Devem ser o núcleo do sistema de cuidados de saúde de um país e são parte integrante do desenvolvimento económico e social global de uma comunidade [1]. Atualmente, os CSP são entendidos como os cuidados essenciais que devem ser universalmente acessíveis a todos os indivíduos e famílias de uma comunidade. Deve tratar os principais problemas de saúde dessa comunidade e promover a saúde e prevenção de doenças [2]. Os Centros de Saúde (CS) foram desde sempre associados ao apoio às famílias,

CISTI 2015 | 172

reconhecendo-se vantagens na prestação dos cuidados de saúde, por um mesmo profissional, a toda a família [3]. Sabe-se que mais de 90% dos problemas de saúde das populações pode ser estudada e solucionada ao nível dos CSP [4]. II.

TRÊS GERAÇÕES DE CUIDADOS DE SAÚDE PRIMÁRIOS

Os CSP em Portugal têm cerca de quatro décadas de existência. O primeiro serviço de cuidados médicos a nível nacional foi implementado pelo Decreto-Lei nº35/311, de 25 de Abril de 1946, que deu origem à Federação das Caixas de Previdência. O sistema de Segurança Social também se inicia

III. GESTÃO EM CUIDADOS DE SAÚDE PRIMÁRIOS E CRIAÇÃO DAS UNIDADES DE SAÚDE FAMILIAR Nos anos 90, numa conjuntura de grande descontentamento dos profissionais dos CSP surgem, alguns projetos experimentais de gestão e organização de CS, nomeadamente: o Projeto Alfa, o Regime Remuneratório Experimental e o Projeto Tubo de Ensaio [7][8][9][10][11]. Estes três projetos experimentais (Figura 1), completamente inovadores, foram a inspiração para o que se pode chamar de [3], que se materializou com a criação das Unidades de Saúde Familiar (USF).

proteção na doença e invalidez dos trabalhadores por conta de outrem [5]. Os CS foram criados pelo Decreto-Lei nº413/71, de 27 de Setembro, Lei Orgânica do Ministério da Saúde e Assistência, como infraestrutura organizativa essencial dos CSP. Pela primeira vez o Estado assume a responsabilidade pela prestação de cuidados de saúde [5]. Na história do país identificam-se três gerações de CS distintas na sua génese e missão [6]. A primeira geração teve início com o referido Decreto-Lei, preventivas e de saúde pública, até aí organizadas de modo vertical, numa rede orientada e inserida nas comunidades [6]. A sua missão encontrava-se na esfera do que se entendia por saúde pública. A sua atuação estava ligada à prevenção de doenças infectocontagiosas, à implementação de programas de vacinação, à vigilância da grávida e da criança, à saúde escolar e a atividades de autoridade sanitária. Os cuidados curativos, de doença aguda e de continuidade de cuidados pós-alta hospitalar, eram essencialmente garantidos pelos Serviços Médico-Sociais das Caixas de Previdência. A assistência médica nos CS era prestada por médicos de Saúde Pública ou Hospitalar, já que a carreira médica de Clínica Geral só seria criada anos mais tarde, em 1983 [6]. O SNS, criado em 1979, defendia o direito à proteção da saúde. Seria nacional, universal, geral e gratuito, cujo acesso devia ser garantido pelo Estado [5]. Em 1983, os postos dos Serviços Médico-Sociais das Caixas de Previdência são integrados nos CS existentes e é criada a carreira médica de Clínica Geral, dando origem à segunda geração de CS. Apesar de racionalizar e otimizar os recursos existentes, não alterou grandemente os cuidados prestados anteriormente, pelas entidades per si. Foi também criada a Direcção-Geral dos CSP, face visível de uma gestão centralizada dos recursos [7]. Este modelo organizativo centralista dos CS contribuiu para a insatisfação e desmotivação dos seus profissionais. O debate sobre a sua reorganização existiu praticamente desde a sua formação, com um enorme contributo dos médicos de Clínica Geral [6]. Em 1989, a revisão da Constituição da República Portuguesa torna o SNS tendencialmente gratuito. Um ano depois é aprovada a Lei de Bases da Saúde, que na sua Base XIII reforça a ideia dos CSP como base de todo o sistema de saúde. A terceira geração de CS, que se estabeleceu com a criação das Unidades de Saúde Familiar (USF), surge na sequência de três projetos experimentais que foram inspiradores para a [3].

Figura 1. Curva do processo de evolução dos CSP

Em 2005 é conduzido o projeto global de lançamento, coordenação e acompanhamento da estratégia de reconfiguração dos CS e implementação das USF [12] com o objetivo de modernização dos CSP. A MCSP através da reforma dos CSP propõe-se melhorar a acessibilidade, a proximidade e a qualidade dos cuidados saúde aos cidadãos, a satisfação dos utentes e dos profissionais de saúde com a melhoria das condições de trabalho e de organização e pela introdução de incentivos que premeiem as boas práticas [13]. Partindo da periferia, experimentando uma nova abordagem com os profissionais do terreno disponíveis para liderar um processo de mudança, que se foi consolidando progressivamente, dando lugar, entretanto, a um novo quadro normativo legal. Não se começou por imaginar e promover uma reforma, tornando-a mais tarde obrigatória por via de uma nova lei, para depois procurar persuadir os atores sociais a ela aderirem. Assim se estabeleceu, através da experiência, um novo modelo de prestação dos cuidados de saúde primários. A nova arquitetura organizacional dos CS assenta em duas componentes complementares: as USF e os Agrupamentos de Centros de Saúde (ACES), cuja constituição motivou a extinção das Sub-Regiões de Saúde [14]. Através desta reforma foram também criadas as Unidades de Cuidados na Comunidade (UCC), as Unidades de Saúde Pública (USP), as Unidades de Cuidados de Saúde Personalizados (UCSP) e as Unidades de Recursos Assistenciais Partilhados (URAP). Esta nova organização dos centros de saúde assenta numa remodelação com duas componentes complementares. A primeira, uma rede de pequenas equipas multiprofissionais, descentralizadas e autónomas, com carácter estrutural permanente, para fins de prestação de cuidados à pessoa e à família, e para assegurar intervenções na comunidade, no meio físico e social, através de programas e projetos com alcance populacional (Unidade de Saúde Familiar, Unidade de Cuidados de Saúde Personalizados, Unidade de Cuidados na Comunidade e Unidade de Saúde Pública). A segunda, uma

CISTI 2015 | 173

concentração de meios e de recursos escassos, de uso comum, e/ou onde é possível beneficiar de economias de escala, através dos Agrupamentos de Centros de Saúde, quer para fins de gestão organizacional, quer para harmonização e liderança técnico-científica (conselhos clínicos), quer para apoio ao funcionamento das unidades multiprofissionais descentralizadas. Estas pequenas unidades funcionais autónomas, as USF e as restantes unidades, são os agentes ativos da prestação de cuidados de saúde aos cidadãos, cuja organização segue a tendência internacional de afastamento do solo practice e substituição pela group practice [6]. A criação dos ACES (agrupamento de centros de saúde) permite a agregação dos recursos e estruturas de gestão e a redução dos custos originando economias de escala, através da concentração de meios e de recursos escassos, de uso comum. Cada ACES é constituído por várias unidades funcionais (USF, UCSP, USP e as URAP), agrupa um ou mais CS e têm por missão a prestação de CSP à população de determinada área geográfica. Este facto possibilita estratégias regionais ao nível dos CSP, que devem ir ao encontro das necessidades e expectativas das populações [13]. IV.

dos recursos (porque estes são escassos) e permitir escalas de governação epidemiológica, os centros de saúde estão agrupados em ACES (agrupamentos de centros de saúde), para que exista poder e responsabilidade de maneira a que quem está por dentro do assunto possa resolver e tomar as devidas decisões de forma mais célere e correta, em que as relações de comando burocrático dão lugar a relações de contratualidade para obtenção de resultados de saúde, existindo avaliações e consequências para todos os envolvidos. Em relação às USF, que foram precursoras e, mais tarde, a face mais visível da reforma, o arranque ascendente ocorreu em 2006/2007. Em 2009-2010 foi iniciado o processo de transformação dos centros de saúde no seu todo através da constituição dos ACES e dos seus órgãos de governação e de gestão. Tratou-se, então, de interferir com largas zonas de inércia e, até, de resistência à mudança. Nesta fase, a abertura das candidaturas a unidades de cuidados na comunidade (UCC) veio reforçar a vertente dinâmica da iniciativa e energia transformadora dos profissionais. Ao longo de 2010 foram sendo constituídas as restantes unidades funcionais dos ACES, designadamente as UCSP, as USP e as URAP.

REFORMA DOS CUIDADOS DE SAÚDE PRIMÁRIOS

A reforma dos CSP, iniciada em 2005, tinha o principal objetivo de reconfigurar os centros de saúde, promovendo assim a introdução de inovação no processo de mudança organizacional, através da implementação das USF, com vista à modernização dos CS e melhoria dos cuidados, apostando na sua orientação para a comunidade, na flexibilidade organizativa e de gestão, desburocratização, trabalho em equipa, autonomia e responsabilização, melhoria contínua da qualidade, contratualização e avaliação [12]. A reforma dos CSP [15] procurou ainda atingir os seguintes objetivos: melhorar a acessibilidade, eficiência, qualidade e continuidade dos cuidados, aumentando a satisfação de profissionais e cidadãos. Caracteriza-se essencialmente por ser: de adesão voluntária assente no trabalho em equipa, existência obrigatória de sistema de informação, pagamento por desempenho, contratualização e avaliação. A reconfiguração dos centros de saúde obedeceu a um duplo movimento: por um lado, formação de pequenas unidades funcionais autónomas, as Unidades de Saúde Familiar (USF), prestando serviços de proximidade e qualidade; por outro lado, com a agregação de recursos e estruturas de gestão, os agrupamentos de Centros de Saúde (ACES) visam a eficiência e economia de escala. As USF conseguiram simultaneamente mais eficiência, acessibilidade, melhor ambiente de trabalho e maior satisfação dos cidadãos. Os centros de saúde são a base institucional destes cuidados, de modo que é fundamental uma maior eficiência e acessibilidade com o objetivo de ir ao encontro das expectativas dos cidadãos, mas também, dos profissionais. Para otimizar a gestão, as USF devem abranger áreas com uma dimensão geodemográfica permitindo vigilância e gestão epidemiológica para a maioria dos fenómenos de saúdedoença, devem ser levados em linha de conta fatores como, a densidade populacional, o índice de dependência de idosos e a acessibilidade geográfica ao hospital de apoio. As unidades funcionais dos centros de saúde complementam-se entre si, apresentando-se mais próximas, com maior qualidade e mais acessíveis aos cidadãos. Para existir uma gestão mais racional

V.

SISTEMAS DE INFORMAÇÃO

Os sistemas de informação (SI) enquadram-se nas organizações como uma forma de agilizar processos e potenciar sinergias, garantindo capacidade de resposta às exigências que vão sendo impostas, numa perspetiva de alinhamento entre os componentes de negócio, os sistemas e as tecnologias de informação. O seu grau de relacionamento com aspetos organizativos reflete o valor atribuído aos SI, na medida em que influem no relacionamento dos recursos e processos de negócio, de forma a proporcionar mecanismos para suporte ao fluxo de dados e informação. O objetivo é agregar os esforços dos vários subsistemas da organização permitindo o funcionamento do sistema como um todo, sem negligenciar o relacionamento com o mundo exterior. Estas valências permitem conferir flexibilidade às atividades desenvolvidas, contribuindo para alavancar a intercomunicação e influir no controle e automatização de processos. O incremento verificado nas áreas tecnológicas, associado às progressivas reduções de custos, teve implicações ao nível da inclusão de ferramentas informáticas no auxílio à gestão. A melhoria de desempenho das organizações surge assim potenciada pela sistematização dos processos de criação, partilha, utilização, proteção e organização da informação. Desta sistematização efetuada quer em termos conceptuais quer em termos funcionais resulta uma unificação de procedimentos, que evitam a redundância de processos e de dados, agilizando e fomentando o incremento de produtividade na realização de tarefas. A relevância dos sistemas de informação é também aferida pela responsabilidade que lhes é imputada pelo processamento dos dados, enquanto elementos não trabalhados, mas potenciadores de conhecimento [16]. Os Sistemas de Informação têm por atribuições/competências elaborar e propor definições de metodologias, arquiteturas, estratégias, normas e procedimentos para os serviços e organismos da saúde, preparar e propor políticas e princípios de gestão da informação e efetuar o controlo da sua execução, definir e propor princípios e normas bem como efetuar a gestão operacional do macro modelo global de dados da saúde.

CISTI 2015 | 174

O SIARS (Sistema de Informação da ARS) é caracterizado pelo repositório de dados provenientes de todas as Unidades de Saúde da Região Norte. O acesso a esta informação é feito com o recurso a ferramentas de Business Intelligence o que permite a recolha, tratamento, organização e partilha de informação para suporte à decisão. Assim sendo, não é facultado ao utilizador a possibilidade de inserir ou alterar informação, mas a possibilidade de realizar consultas rápidas e fiáveis. As principais fontes de informação no SIARS são: SINUS - sistema estrutural e integrado de informação para os Cuidados de Saúde Primários relativo a dados administrativos; SAM - sistema de apoio aos médicos;

maior eficiência operacional poderá passar pelo combate ao desperdício, como forma de reduzir a necessidade de mais recursos financeiros, para o mesmo volume de actividade desenvolvida e recorrer a sistemas de informação para garantir a qualidade e a redução de custos. REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3] [4]

SAPE - sistema de apoio à prática de enfermagem. Os sistemas de informação tornaram-se essenciais para a medição e valorização dos resultados na prestação de cuidados em CSP, contribuindo para a qualidade dos registos clínicos e técnicos rigor, precisão, clareza, concisão e uso correto das classificações apropriadas, assumindo-se como uma vertente fundamental num modelo que assenta na avaliação através de indicadores servindo de base à negociação no âmbito da contratualização. O uso apropriado das tecnologias de informação são igualmente importantes para a qualidade da comunicação e a atenção para com os utentes. A capacidade de gestão de um sistema de saúde implica cada vez mais informação oportuna e fiável. As tecnologias de informação constituem um elemento essencial de qualquer sistema de saúde, e há muito que é reconhecida a vantagem dos médicos conseguirem de forma rápida, conhecer o historial clínico do doente, assim como a organização conhecer todo o seu percurso. O desenvolvimento de sistemas de informação adequados é uma preocupação no sistema de saúde português, sobretudo no SNS. Apesar de várias iniciativas, não houve um avanço suficiente neste campo. VI.

CONCLUSÕES

[5] [6]

[7]

[8] [9]

[10]

[11]

Os sistemas de saúde orientados para os cuidados primários, capazes de solucionar a maioria dos problemas de saúde dos cidadãos, obtêm melhores resultados em saúde e este parece ser o caminho para melhorar a qualidade, acessibilidade, eficiência e sustentabilidade financeira do sector da saúde. A conjuntura económica desfavorável, a necessidade imperiosa de aumentar a eficiência do sistema, reduzir os custos e melhorar a qualidade dos cuidados, bem como, a insatisfação latente dos profissionais dos CSP, foram as forças motrizes da mudança. A descentralização da gestão dos serviços, a motivação dos profissionais de saúde, o estabelecimento de metas tangíveis, a avaliação de desempenho e a atribuição de incentivos financeiros dependentes dos resultados obtidos foram os grandes objetivos da reforma. Pela primeira vez, foi implementado um processo de contratualização ao nível dos cuidados primários, com envolvimento direto dos profissionais através de contratualização interna. Houve um grande investimento nas estruturas físicas dos CS e estudos revelam a satisfação dos profissionais das USF e utentes. O novo modelo organizacional, que pretende garantir a viabilidade sustentabilidade financeira dos CSP, terá que encontrar o equilíbrio na gestão dos recursos disponíveis. A procura de

[12]

[13]

[14]

[15]

[16]

WHO. (1978). Declaration of Alma-Ata - International Conference on Primary Health Care. In Conf. Inter. de Cuidados Primarios (p. 3). Biscaia, A., Gonçalves, I., Ferreirinho, P., Carreira, M., Antunes, A., & Martins, J. (2005). Os Cuidados de Saúde em Portugal - Reformar para novos sucessos. (F. Astrazeneca, Ed.) Fundação Astrazeneca (1ª edição). Biscaia, A. R. (2006). A reforma dos cuidados de saúde primários e a reforma do pensamento. Revista Portuguesa de Clínica Geral, 67 79. Grande, N. R. (2000). Cuidados de saúde primários: pedra angular dos sistemas de saúde. Forum de Economia Da Saúde, Fundação Dr. António C Upertino de Miranda, Porto, 1 5. Barbosa, P. (2010). Desenvolvimento organizacional dos cuidados de saúde primários em Portugal. Retrieved from http://www.observaport.org/node/244. Branco, A. G., & Ramos, V. (2001). Cuidados de Saúde Primários em Portugal. Revista Portuguesa de Saúde Pública, 2, 5 11. Retrieved from http://scholar.google.com/scholar?hl=en&btnG=Search&q=intitle:Cuida dos+de+saude+primarios+em+Portugal#0. Escoval, A., Matos, T., Ribeiro, R., & Santos, A. (2010). Contratualização em cuidados de saúde primários: horizonte 2015/20Relatório final (p. 66). Retrieved from http://www.acss.minsaude.pt/Portals/0/PIRPIFase3Revis%C3%A3oPr%C3%A1ticasInternac ionais.pdf. Hespanhol, A., Malheiro, A., & Pinto, A. D. S. (2002). O Projecto Revista Portuguesa de Clínica Geral, 171 186. Hespanhol, A., & Pinto, A. S. (2005). O Regime Remuneratório do ©ArquiMed, 2005, 19, N, 113 120. Retrieved from http://www.scielo.gpeari.mctes.pt/pdf/am/v19n3/v19n3a04.pdf. Hespanhol, A., Ribeiro, O., & Costa-pereira, A. (2005). Assegurar Qualidade no Centro de Saúde São João Satisfação dos Utentes. ARQUIVOS DE MEDICINA, 19(5-6): 191-197, 19, N, 191 197. Retrieved from http://www.scielo.gpeari.mctes.pt/pdf/am/v19n56/v19n5-6a02.pdf. M. Young, The Technical Writer's Handbook. Mill Valley, CA: University Science, 1989. MCSP. (2006). Linhas de Acção Prioritária para o Desenvolvimento dos Cuidados de Saúde Primários. Retrieved from http://www.portaldasaude.pt/NR/rdonlyres/3FADF4DA-34C3-4F3C895C-F07AE7AC51A3/2822/linhas_acção.pdf. Pisco, L. (2007). PROPOSTA PARA A RECONFIGURAÇÃO DOS CS. Missão Para Os Cuidados de Saúde Primários. Retrieved from http://www.acss.minsaude.pt/Portals/0/Proposta_Reconfiguracao_CS.pdf. Sakellarides, C. (2009). Relatório Acontecimento Extraordinário (p. 57). Lisboa. Retrieved from http://www.portaldasaude.pt/NR/rdonlyres/070DDE85-32AD-4317B174-6D2ED2C173F9/0/2REL_Fev09_formatado_Final.pdf. Ferreira, P. L., Antunes, P., & Portugal, S. (2010). O Valor dos Cuidados de Saúde Primários: Perspectiva dos utilizadores das USF 2009. Ministério Da Saúde - MCSP, 76. Retrieved from http://www.ces.uc.pt/cesfct/ms/O_Valor_dos_CSP_Patricia_Antunes.pd f. Grover, V., & Davenport, T. H. (2001). General Perspectives on Knowledge Management: Fostering a Research Agenda. Journal of Management Information Systems.

CISTI 2015 | 175

Conceptualización y Desarrollo de un Sistema para el Soporte a la Decisión Espacial Colectiva El Sistema Geoespacial de Inteligencia Colectiva

Conceptualisation and Development of a Collective Spatial Decision Support System The Geospatial System of Collective Intelligence Juan Daniel Castillo Rosas1, Alex Jiménez Vélez1,3, Josep María Monguet Fierro1, María Amparo Núñez Andrés2 1

Departament d'Expressió Gràfica a l'Enginyeria y 2Departament d'Enginyeria del Terreny, Cartogràfica i Geofísica Universitat Politècnica de Catalunya, UPC-BarcelonaTech Barcelona. 3 Universidad de las Fuerzas Armadas (ESPE) Ecuador [email protected], [email protected], [email protected], [email protected]

En este artículo se presentan los avances de una Resumen investigación que se centra en validar un sistema geoespacial inteligente para el soporte a la toma de decisiones en escenarios geográficos complejos a través del cual se podrán establecer patrones geoespaciales actuales y prospectivos, en base a las inteligencias colectiva y artificial. El sistema se enfoca principalmente en la organización y empleo de recursos en el territorio para la toma de decisiones en el proceso de planificación. Palabras Clave - SIG; SADE; Inteligencia Colectiva; Sistema Geoespacial, Información geográfica. Abstract In this paper we present the progress of a research that focuses on validating an intelligent geospatial system aimed to support decision-making in complex geographic scenarios, whereby current and prospective geospatial patterns could be generated (through which it may provide ), with the support based on Collective Intelligence and Artificial Intelligence. The system mainly focuses on the organisation and management of resources linked to territories in order to support decisionmaking in the planning process. Keywords - GIS; SDSS; Collective Intelligence; Geospatial System, Geographic Information.

I.

INTRODUCCIÓN

La evaluación y gestión de los recursos humanos, materiales, financieros, tecnológicos y naturales, son primordiales en la toma de decisiones de todos los niveles de la administración pública y privada, por lo que es una realidad que cualquier organización requiere de un sistema estratégico que le ayude a concebir, planear y dirigir sus actividades identificando en cada caso las mejores opciones. Una gran parte de los quehaceres humanos están vinculados con el territorio, no obstante, siendo el espacio geográfico el

escenario en donde tienen o tendrán lugar la mayoría de esas actividades, en pocas ocasiones es considerado tal componente como necesario para definir las alternativas en la toma de decisiones. Por ello, esta investigación se desarrolla bajo la premisa de que toda entidad y ocurrencia con existencia en el mundo real, tiene, tuvo o tendrá lugar en algún sitio; por lo tanto puede ser localizada [1]. Así, este enunciado junto a la llamada primera ley de la geografía de Tobler, [2], [3], permite situar cada cualidad del contexto geográfico en un lugar del territorio, haciéndolo localizable y por lo tanto cartografiable [4], o convenientemente lo que en la actualidad se denomina georreferenciable, constituyendo así la base de cualquier entidad o dato geoespacial, pudiéndose entender como tal, al dato que pertenece o se relaciona a la ubicación o distribución relativa de cualquier ente respecto a la superficie terrestre. Tales datos son tan habituales hoy día que algunos autores consideran que más del 80% de la información que se maneja en el sector público y privado es de carácter geoespacial [5], [6], o bien que aproximadamente un 70% de la información que se utiliza en cualquier tipo de disciplina se encuentra georreferenciada [7], incluso un estudio reciente ha demostrado que en el caso de los artículos publicados en la Wikipedia alemana, desde el enfoque cognitivo del ser humano para distinguir o aplicar una referencia directa, indirecta y no geoespacial, se debe considerar que un 60% de dicha información tiene este tipo de componente [8]. Lo trascendental de las entidades geoespaciales es que permiten incorporar, representar, estudiar y modelar en un Sistema de Información Geográfica (GIS por su acrónimo en inglés), las ubicaciones y características de los elementos naturales, sociales y económicos del espacio geográfico, tanto los visibles como los invisibles, e incluso, las relaciones que se forman entre éstos, por lo que tales datos representan un componente indispensable para el soporte a la toma de

CISTI 2015 | 176

decisiones, esencialmente respecto a escenarios geográficos complejos, entendiéndose por tales los lugares debidamente delimitados en tiempo y espacio en que ocurren o se desarrollan sucesos y que no pueden ser estudiados dividiendo las partes que los componen (naturaleza, sociedad, economía, etc.) para después asociar los resultados, sino a través de un tratamiento sistemático y sistémico de su conjunto, por lo que esta idea también supone el tratamiento analítico del espacio como una sola unidad de sistemas de objetos y sistemas de acciones [9, p. 66] la transición del pasado al futuro, mediante la consideración del presente [9, p. 64]. Ante la complejidad de estos escenarios para abordar el proceso de soporte a la toma de decisiones, es necesario desarrollar tecnología que permita estudiar el espacio geográfico desde un enfoque interdisciplinario, es decir, a través de la participación de un grupo multidisciplinar de expertos con conocimientos propicios en el tema a tratar, quienes a través de marcos epistémicos, conceptuales y metodológicos compartidos [10], contribuyan en el desarrollo de las alternativas factibles gracias a las tendencias intersubjetivas que aporta su conocimiento, análisis, intereses y responsabilidad social. En la actualidad, los Sistemas de Información Geográfica, se han incorporado como pieza fundamental de los Sistemas de Soporte o Ayuda a las Decisiones Espaciales (SADE o SDSS por sus siglas en inglés), y en base a éstos se pueden elaborar modelos y escenarios pasados, actuales y futuros dentro de un contexto espacio-temporal determinado, por lo que son un importante instrumento para apoyar el proceso de toma de decisiones con el fin de efectuar tereas de previsión para la planificación territorial a través de la integración de distintos métodos y actores de manera multidisciplinaria, como lo sugiere por ejemplo, el enfoque del relativamente reciente campo de investigación denominado geoprospectiva [11] [13].

Por ello, en este artículo se presentan los avances de una investigación que intenta validar un sistema geoespacial inteligente para el soporte a la toma de decisiones en escenarios geográficos complejos, para lo cual se proporcionan las directrices de la conceptualización del diseño y desarrollo de un Sistema Geoespacial de Inteligencia Colectiva (SIGIC), que basado en la filosofía de la Inteligencia Colectiva y herramientas de la Inteligencia Artificial, permitirá ubicar patrones geoespaciales actuales y prospectivos de bienes, servicios o eventos, principalmente para fines de planificación, debiendo entenderse por patrones, como las entidades que están representada por un conjunto de propiedades medidas y las relaciones entre ellas [15]. II.

MARCO CONCEPTUAL

Aunque se han abordado ya algunos conceptos iniciales, se considera conveniente puntualizar algunas definiciones y líneas adicionales que enmarcan nuestra investigación con el fin interpretar nuestra propuesta y los resultados que con ella se buscan. El término de Inteligencia Colectiva, tiene diversas y variadas acepciones, sin embargo, para el propósito de este trabajo se considera como l humanos para participar en la cooperación intelectual con el fin , en el entendido que para lograr esto se ha adoptado el modelo propuesto por The Millennium Project, que sugiere, que la Inteligencia Colectiva es una propiedad de la emergencia entre las sinergias de datos, información, conocimiento, el software, el hardware y un grupo de personas, quienes aprenden y se retroalimentan con el conocimiento del grupo en la búsqueda de las mejores alternativas a una situación dada "Fig. 2".

Sin embargo, si bien los SADE "Fig. 1" son cada vez más empleados como ayuda respecto a los problemas de la complejidad territorial, generalmente en éstos el análisis del espacio geográfico se efectúa desde el conocimiento y habilidades de una solo persona, incorporándose éste resultado a otros provenientes de modelos, sistemas y conocimiento de expertos, por lo que finalmente el apoyo a la decisión espacial se efectúa fragmentando las partes para su análisis y reuniendo posteriormente los resultados correspondientes.

Figura 2. La Inteligencia Colectiva (The Millennium Project)

Respecto a la Inteligencia Artificial, se particulariza para este propósito como la ciencia y la ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes [16], por lo que se adopta desde este enfoque el modelo que intenta imitar a través de un programa informático el aprendizaje del cerebro humano a partir de ejemplos, conocido como Redes Neuronales Artificiales (RNA). III.

Figura 1. Sistemas de Ayuda a las Decisiones Espaciales, SADE o SDSS (modificada de IMPETUS [14])

METODOLOGÍA

Por lo expuesto, para que una tecnología pueda ayudar en el proceso de la toma de decisiones en escenarios geográficos complejos, se considera que en ésta deben convergir conceptos, métodos y tecnologías de: -

CISTI 2015 | 177

Inteligencia colectiva.

-

Inteligencia artificial.

-

Sistemas complejos.

-

Teoría de la decisión.

-

Sistemas de ayuda a las decisiones espaciales (SDSS).

-

Sistemas de soporte a la decisión en grupo (GDSS).

-

Geoprospectiva.

Por ello, en este desarrollo se combinan por primera vez las herramientas y/o conceptos de estos ámbitos para el diseño y construcción de una aplicación WEB GDSS-SDSS "Fig. 3", en la que se adicionó una función que automatiza la versión espacial del método Delphi [17], pero modificada en base al método Delphi en Tiempo Real [18] [20] y al modelo Vector Consensus [21].

Figura 3. Diagrama de contexto del Sistema Geoespacial de Inteligencia Colectiva (SIGIC)

En esta aplicación se puede presentar una encuesta cuyo propósito sea identificar los factores o aspectos que deben evaluarse en determinado espacio geográfico en dos etapas principales, la primera de ellas para juzgar el estado actual y la segunda para estimar el escenario deseable [22]; los expertos elegidos convenientemente para tal fin, participarán siempre bajo anonimato entre ellos, como lo establece el Método Delphi [23], y al analizar el conjunto de información que se proporciona en el propio sistema para el efecto, pueden responder la encuesta posicionando un punto sobre el mapa [17] y complementando su opinión con un breve mensaje de texto que avale su postura. En el mapa, se muestra una circunferencia gráfica e interactiva, cuya área indica el geoconsenso [24] en tiempo real obtenido hasta el momento por el grupo, en el cual se considera por lo menos el 50% de opiniones de los participantes [17]; asimismo, cada experto puede consultar los argumentos textuales de todo el grupo, ya que éstos se encuentran asociados a la ubicación correspondiente en el mapa, y con ello adquieren retroalimentación que les permite ratificar o rectificar la opinión propia, constituyéndose de esta manera un verdadero ejercicio de inteligencia colectiva.

Para promover la convergencia de las distintas opiniones y evaluar el consenso, en el método Delphi habitualmente se utilizan estimaciones estadísticas como son el rango intercuartílico y con menor frecuencia la desviación estándar, sin embargo, en este caso no se evalúan valores cuantitativos provenientes de una escala psicométrica como es lo habitual en ese tipo de encuestas, sino proceden de valores cuantitativos de las coordenadas geográficas en que se ubica cada punto aportado como opinión de los expertos. Por ello, el algoritmo incorporado en base a la versión espacial del Método Delphi [17], grosso modo, utiliza la mediana aritmética de los vectores obtenidos de las distancias entre cada punto existente como opinión o respuesta a cada cuestión presentada en la encuesta. Cuando se haya obtenido el geoconsenso buscado, se compondrá un patrón geoespacial del área correspondiente a través de un arreglo de geo-átomos [25], mismo que incluirá todas las propiedades cualitativas y cuantitativas que se encuentren de acuerdo con los distintos niveles de información geoespacial empleados en el sistema, tanto de tipo vectorial, como raster o matricial. En base a este patrón inicial o patrón de entrada, se efectuará una clasificación de la zona de estudio a partir de un algoritmo de Redes Neuronales Artificiales de tipo multicapa, por ser las que han presentado resultados alentadores en numerosos problemas geográficos [26], así como algunas ventajas ante otros métodos tradicionalmente empleados para la clasificación de datos, además de que se parte de conocer la clase buscada (el patrón inicial obtenido por el geoconsenso) [27]. El resultado por lo tanto, estará compuesto de un mapa temático en el que se mostrará para cada enunciado de la encuesta, las ubicaciones que presenten semejanzas respecto al patrón inicial correspondiente, ponderadas en tres rangos de similitud (alta, media y baja) "Fig. 4", asimismo, se destacará la ubicación de la que se obtuvo el patrón inicial (área del geoconsenso) y se proveerá un texto compuesto por todos los argumentos del grupo que avalan cada posición indicando, si pertenecen o no al área de geoconsenso.

Figura 4. Esquematización de los resultados esperados con el SIGIC

IV.

CONCLUSIONES

Los primeros ensayos del SIGIC se dirigen a generar una herramienta para el soporte a la toma de decisiones en gestión ambiental, habiéndose iniciado con el nombre ALVARADO (Análisis Validado de la Realidad Ambiental mediante Diálogos de Opinión), sin embargo, actualmente también se

CISTI 2015 | 178

prepara un ejercicio para la Planificación de Servicios de Salud en el Ecuador [28], por lo que consideramos que este desarrollo podría ser aplicado, con la apropiada adaptación, en distintos ámbitos de la administración pública y privada, como pueden ser medio ambiente, seguridad, defensa, riesgos naturales, protección civil, salud, educación, energía, comunicaciones, comercio, desarrollo y ordenación territorial, entre otros aspectos, ya que este sistema permitirá obtener un panorama múltiple e interdisciplinario de alternativas que faciliten la toma de decisiones, entre las cuales se podrán matizar fortalezas y vulnerabilidades de puntos geográficos que permitirán planificar, organizar y ejecutar las acciones necesarias tendientes a evitar o favorecer su ocurrencia con respecto al escenario deseado constituyéndose como una herramienta de inteligencia estratégica territorial única.

[13] [14]

[15] [16]

[17] [18]

Por lo tanto, ésta tecnología se perfila como una aplicación que reúne distintos tipos de inteligencia para generar inteligencia, con la cual distintas organizaciones del ámbito público y privado podrán planificar la organización y empleo de recursos en el territorio en el corto y largo plazo.

[19]

AGRADECIMIENTOS

[20]

Al Consejo Nacional de Ciencia y Tecnología (CONACYT) de México por la subvención otorgada para el desarrollo de esta investigación.

[21]

REFERENCIAS BIBLIOGRÁFICAS [1]

[2] [3] [4] [5] [6]

[7] [8] [9] [10] [11] [12]

P. I. Robles Toral, J. D. Castillo Rosas, M. A. Nuñez Andres, and J. International Conference, 2013.

9th gvSIG

Assoc. Am. Geogr., vol. 94, no. 2, pp. 304 310, Jun. 2004.

Ann. [23]

Econ. Geogr., vol. 46, pp. 234 240, 1970. O. Dollfus, El espacio geográfico. Oikos-tau, 1976. Annual Conference of the Urban and Regional Information Systems Association, 1987, pp. 150 156. sificación de datos geoespaciales: comparación entre mapas autoorganizativos de Rev. Ing. e Investig., vol. 53, pp. 12 22, 2003. V. Olaya, Sistemas de información geográfica. OsGeo, 2012. S. Hahmanna and D. Burgha Int. J. Geogr. Inf. Sci., vol. 27, no. 6, pp. 1171 1189, 2013. M. Santos, A Natureza do Espaço: Técnica e Tempo, Razão e Emoção, 4/a. ed. Editora da Universidade de São Paulo, 2006. Rev. Latinoam. Metodol. las Ciencias Soc., vol. 1, pp. 66 101, 2011. vol. 2, no. 41, pp. 154 168, 2012. Geogr. [En ligne], pp. 1 9, 2014.

[22]

Espace. Geogr.,

[24]

[25] [26] [27] [28]

C. Voiron41, no. 2, pp. 99 110, 2012.

Espace. Geogr., vol.

Aim and Configuration of Spatial Decision Support Systems, 2011. [Online]. Available: http://www.impetus.uni-koeln.de/en/project/concepts/sdssbasics.html. [Accessed: 25-Jan-2015]. S. Watanabe, Pattern recognition: human and mechanical. New York, New York, USA: John Wiley & Sons, Inc., 1985. Handbook of Collective Intelligence, 2012. [Online]. Available: http://scripts.mit.edu/~cci/HCI/index.php?title=Main_Page#What_is _collective_intelligence.3F. [Accessed: 10-Nov-2014]. nce in location: a Technol. Forecast. Soc. Change, vol. 78, no. 9, pp. 1565 1578, Nov. 2011. T. Gnatzy, J. Warth, H. von der Gracht, and I.-L. Darkow, -time Delphi approach - A methodological comparison between real-time and conventional Technol. Forecast. Soc. Change, vol. 78, no. 9, pp. 1681 1694, Nov. 2011. Futures Research Methodology Version 3.0, J. C. Glenn and T. J. Gordon, Eds. The Millennium Project, American Council for the United Nations University, 2009, p. 19. C.-H. Hsieh, F.-M. Tzeng, C.-G. Wu, J.-S. Kao, and Y.comparison of online Delphi and realTechnology Management in the Energy Smart World (PICMET), 2011 , 2011, pp. 1 3. J. M. Monguet, A. Gutiérrez, M. Ferruzca, Y. Alatriste, C. Martínez, C. Córdoba, J. Fernández, T. Sanguino, J. Aguilá, and M. Ramírez, Organizational Integration of Enterprise Systems and Resources: Advancements and Applications, U.S.A.: Business Science Reference (an imprint of IGI Global), 2012, pp. 303 317. consensus: decision making for collaborative innovation Enterprise Information Systems-CENTERIS, 2010, vol. 110, pp. 218 227. H. A. Linstone and M. Turoff, The Delphi Method. Techniques and applications. Addison-Wesley Pub. Co., Advanced Book Program, 1975. J. D. Castillo Rosas, A. Jiménez Vélez, M. A. Núñez Andrés, and J. Universitat de Girona, Girona, España, 2015. vol. 21, no. 3, pp. 239 260, 2007.

SIGTE, Int. J. Geogr. Inf. Sci.,

spatial data thr Soft Comput., vol. 9, no. 5, pp. 326 331, Sep. 2004. J. T. Palma Méndez and R. Marín Morales, Inteligencia artificial. Técnicas, métodos y aplicaciones. Madrid, España: McGraw-Hill, 2008. A. Jimenéz Vélez, J. D. Castillo Rosas, and J. M. Monguet Fierro, Congress on Public Health, 2015, p. Poster.

- apport de la Cybergeo Eur. J.

CISTI 2015 | 179

14th World

Uso de Arquetipos Sistémicos para el desarrollo de un software interactivo. Un caso de niños con autismo moderado

Systemic Archetypes use to developing an interactive software. A children with moderated autism case Miguel Aristizábal, Jaime Echeverri

Medellin, Colombia [email protected] [email protected] [email protected]

Universidad de Antioquia Medellín, Colombia [email protected] [email protected]

Santiago Gómez G, Universidad de Medellín Medellín, Colombia [email protected]

Manuela Aristizábal, Carolina Aristizábal, Santiago Gómez Z. Universidad Eafit

Resumen El propósito del presente artículo es la identificación de los elementos de valor en el desarrollo de un software interactivo, para proponer a una comunidad de la que hacen parte niños autistas con dificultades de aprendizaje o desarrollo moderado. Para la identificación de los elementos de valor se utiliza el Arquetipo Sistémico de co-creación, identificándolos por medio un análisis fenomenológico de la experiencia de la red de beneficiarios de la co-creación. El estudio comprende un análisis fenomenológico previo de las necesidades de los niños en su ambiente natural con sus padres y educadores. El foco inicial es el caso de uso en el escenario que un niño enfrenta cuando debe de ir al baño, identificando los elementos de valor para los estímulos auditivos y gráficos, registrados en un software para luego ser utilizados en la etapa de diseño. Los resultados muestran que la metodología considerada permite capturar los elementos del valor que expresan requisitos funcionales y no funcionales, por medio de actos de habla calificativos, con el propósito de diseñar y desarrollar un software que puede ser rediseñado en forma co-creada con los actores claves en el uso del servicio. Palabras clave: Valor Percibido; Co-creación; Arquetipos Sistémicos de Co-creación; filosofía del lenguaje; actos ilocucionarios. The purpose of the present paper is the identification Abstract of value elements during the development of an interactive software, which is proposed for children with learning and development difficulties. In order to identify value elements the Systemic Archetype of co-creation is used, those values are identified by using a phenomenological analysis focused on experience of the co-creation network beneficiaries. The study comprises a previous phenomenological analysis of children´s needs within their natural environment with parents and educators. The initial focus is the use case in the scenario that a

child faces when going to the bathroom, identifying value elements for aural and graphic stimuli, then registered in software and used in the design phase. Results show the methodology allows the capture of value elements that express functional and no functional requirements, through qualifying speech acts with the purpose of design and develop software that could be redesigned in a co-created way with key actors using the service. Keywords-component: Perceived value; co-creation; Cocreation systemic archetypes; language philosophy; illocutionary acts.

I.

INTRODUCCION

Según el doctor Douglas y su colegas [1] el autismo se considera como un trastorno biológico que causa dificultades en la interacción social y en la comunicación. Este término fue utilizado por primera vez en 1911 por Eugine Bleuler, para describir las dificultades que tenían los esquizofrénicos para relacionarse con otras personas. Después Leo kanner, en 1943 describió el cuadro clínico del trastorno y lo denominó n 1994 empieza a publicar casos en los que las personas con autismo tenían menor afectación y un coeficiente intelectual menos deficiente, [2], otro estudioso del tema, Wing, [3]. En investigación recientes, se ha considerado el autismo como un trastorno fisiológico inadecuadamente explorado y potencialmente curable, si se empieza con un tratamiento temprano antes de los 2 años de edad, de esta manera puede evitarse un deterioro cognitivo, aparición de alteraciones neurológicas y se puede facilitar el aprendizaje al mejorarse su condición fisiología alterada [4].

CISTI 2015 | 180

Según el manual diagnóstico y estadístico de trastornos mentales [5], los trastornos generalizados tienen unas características como la alteración social, comunicación y comportamientos o intereses repetitivos. Uno de los más frecuentes es el autismo, considerado como un conjunto de conductas inadaptativas que incluyen retraimiento, retraso en el desarrollo del lenguaje, escaso disfrute de actividades sociales, ausencia de búsqueda y ofrecimiento de apoyo social, la reducción de respuestas emotivas como la alegría, la sorpresa y la curiosidad; manifestaciones que indican un déficit en las habilidades de cognición social, es decir la falta de capacidad de socialización y comprensión de los deseos o emociones. En Colombia aún no contamos con estudios epidemiológicos, pero se considera que aproximadamente el 1% de la población podría presentar este trastorno en alguna de sus variantes. También se sabe que con una intervención a temprana edad, el 86% de los niños autistas desarrollan la comunicación verbal, en un contraste con el 50% que no pueden recibir una intervención [6] . El uso de tecnologías de la información ha tomado un rol importante en la investigación en el tratamiento de personas que presentan un trastorno del espectro autista. Estos avances forman partes de tratamientos efectivos y más novedosos, que ayudan a una mejor calidad de vida. Las personas con este trastorno tienen preferencias por los medios electrónicos y fuertes habilidades de procesamiento visual. Por ello, la motivación al aprendizaje a través de las TIC pueden impactar en forma positiva a las personas con cierto nivel de autismo [7], pero a la vez son las estrategias educativas implementadas a través de las TIC las verdaderamente importantes [8]. Es por ello que como apoyo a las habilidades cognitivas que los niños autistas deben afianzar, se desarrollo una aplicación para dispositivos móviles para este fin. Este aplicativo puede ser adquirido a través de las plataformas IOS o Android, y cuenta con una página web para conocer más información: www.appnico.com. Con él se pretende fomentar el desarrollo cognitivo en las áreas de comunicación, lenguaje e interacción de niños con autismo moderado en la edad infantil. Enfatizando en varios aspectos: adaptación a tareas frecuentes de los niños, ofrecer un entorno controlado, fortalecer una atención educativa individualizada, permitir autonomía del niño, promover la motivación al aprendizaje, fortalecer la autoestima, mejorar su autocontrol, tener las TIC como refuerzo educativo y permitir el alcance de objetivos educativos propuestos. Algunos autores han trabajado la influencia de las TIC en los autistas: Parsons, Leonard y Mitchell [9] demostraron la capacidad que tienen para aprender habilidades sociales con el uso de la tecnología; Passerino y Santarosa [8] concluyen que la autorregulación y la autoestima es posible mejorarlas con el uso de las TIC y que las situaciones sociales reales pueden ser representadas por medio de estas tecnologías [10]. Un estudio reciente realizado en la universidad de Glasgow [11] sobre los juegos disponibles entre 2004 y 2014 para niños con autismo, demuestra la efectividad de los juegos en tabletas y dispositivos móviles para ayudar a los niños a expresar sus sentimientos y mejorar su nivel de compromiso con los demás. Sin embargo, identifica el estudio la ausencia de propuestas

que mejoraran la imaginación por medio del juego y enseñaran primeros auxilios. En Colombia particularmente, existen muy pocos estudios que profundicen sobre los aportes de las TIC y los juegos en dispositivos móviles, como aporte al desarrollo de la comunidad de niños con esta condición. Adicionalmente, pocos estudios se enfocan en el desarrollo de aplicaciones móviles para niños autistas, involucrando a la red de beneficiarios, como co-creadores del valor que exprese los requisitos de dichas aplicaciones, partiendo de su experiencia vivida con esta comunidad de niños. La atención para el desarrollo de la aplicación se realiza teniendo en cuenta los contextos que incluyan las redes adicionales de la co-creación con las cuales el valor pueda crearse con sus beneficiarios [12] [13], pero con un enfoque en la filosofía del lenguaje como apoyo metodológico. Se opta por involucrar a las redes de beneficiarios ya que es complicado el aporte lingüístico de los niños con autismo en el diseño. Las expresiones lingüísticas de valor ayudan a describir en una forma apropiada, el significado de valor encontrado en los atributos, que componen un servicio de TIC ideal para estos niños, lo que permite posteriormente plasmar estos elementos en el diseño de la aplicación. Dentro de la Ciencia del Servicio, éste se define como La aplicación de competencias especializadas (habilidades y conocimiento) por medio de acciones, procesos y actuaciones [14]. Esa aplicación de competencias es la que se busca imprimir en el software interactivo, enfocados en la Lógica Dominante del Servicio. La LDS tiene la fenomenología (la experiencia) como una de sus premisas que surge en diferentes contextos [15] y aunque es bien conocido este enfoque desde el punto de vista conceptual, muy poco popular es en el campo investigativo de la co-creación, y el nuevo desarrollo del servicio [16]. La preocupación por satisfacer las necesidades de los clientes es uno de los retos para todas las compañías de tecnología en el ambiente competitivo actual [17]. Aunque existen diferentes necesidades de los clientes, las necesidades funcionales y afectivas tienen gran importancia en la satisfacción del cliente. El diseño con base en el desempeño (diseño funcional) y el diseño basado en la usabilidad (diseño ergonómico) no son una ventaja competitiva sostenible a largo plazo, porque los productos tecnológicos llegan a un estado de madurez rápido o logran los competidores rápidamente ponerse al día tecnológicamente [18]. Bajo estas consideraciones, es importante involucrar al cliente en el diseño de servicios y productos, pero teniendo en cuenta sus aportes derivados de las necesidades afectivas [19]. Considerando el afecto como una de las bases para la formación humana de la opinión [20], se puede argumentar por lo tanto, que el diseño de productos o servicios que no tenga en cuenta el afecto, es esencialmente débil [21]. Sin embargo, es difícil capturar las necesidades afectivas de los clientes debido a su origen puramente lingüístico [20]. Las impresiones subjetivas son difíciles de traducir a descripciones verbales, y las necesidades afectivas son raramente estados emocionales de corta duración que además tienden a ser imprecisos y ambiguos [22]. En el presente artículo, el origen lingüístico de las necesidades afectivas de los niños con autismo se aborda desde la filosofía

CISTI 2015 | 181

del lenguaje, con un foco claro en la construcción del valor en forma co-creada.

rastrear su comportamiento durante este fenómeno. En sí es encontrar los significados [31].

La co-creación de valor [23] [24] [25] es un concepto relativamente nuevo, por medio del cual los clientes y otros agentes vinculados a una organización pueden interactuar en redes organizacionales interrelacionadas [26], en este caso la red de beneficiarios, con el fin de obtener valor de productos o servicios en forma colaborativa empresa-cliente. El principal reto de la co-creación es capturar las necesidades afectivas de los clientes con base en sus experiencias y lograr que el diseño del producto o servicio engrane con estas necesidades. Además, los problemas receptor-transmisor que surgen durante la comunicación en los procesos de co-creación pueden conducir a una concepción errada de las necesidades afectivas [27].

Los significados para el usuario son producto su interacción con la propuesta de valor realizada por un proveedor, estos significados simbólicos y emocionales son las improntas del usuario que se co-crean a partir de esa interacción usuarioproveedor o beneficiario-proveedor. Extraer significado para valorar esas improntas es el propósito de la metodología ADES propuesta en el presente trabajo, para lograr una adecuada interpretación de las improntas co-creadas y a partir de ello facilitar su constante evolución con la participación de los diseñadores. El diseño de servicios centrado en las improntas co-creadas, facilita la comprensión de los significados para el cliente y la posibilidad de ampliar estos significados y cambios socioculturales por medio de la innovación en co-creación. Algunos autores tratan las improntas co-creadas propuestas en el presente trabajo como parte del diseño afectivo, definido como la respuesta psicológica del usuario a los detalles perceptuales [32] [20] [33] [34]. Lo que los diseñadores quieren crear como valor perceptual en la experiencia de los clientes con el uso de un servicio.

El presente artículo se enfoca en el análisis fenomenológico de la experiencia en el uso, por parte la red de beneficiarios de un servicio en su proceso de creación de valor; recoge sus experiencias vívidas, que son representadas en su impronta individual y elicitada por medio de actos de habla evaluativos. Estas improntas son socializadas en las actividades de interacción beneficiarios-diseñadores para lograr un consenso colectivo, para luego ser expresado en el software a desarrollar. Desde el punto de vista de los niños usuarios del software, los servicios crean en ellos una experiencia particular, las improntas, en la medida que los diseñadores interpreten adecuadamente con los beneficiarios, padres de familia y educadores, las necesidades afectivas que como parte del mundo de vida de los niños han identificado. Estas improntas son el objeto de diseño. Existen una serie de implicaciones desde la perspectiva de la Lógica Dominante del Servicio en relación de cómo afrontar el proceso de creación de valor, porque aunque se ha determinando como creado en el uso, es para [28] en función de la interacción que la co-creación tiene lugar, diferenciando los autores claramente uno de los fundamentos de la Lógica Dominante del Servicio, el cual sostiene que el cliente es cocreador por naturaleza. Este cambio de perspectiva requiere otros métodos y herramientas para entender la situación de la creación de valor y su co-creación, tanto en la realización del valor como en el desarrollo y diseño de servicio a partir de las experiencia de los clientes o beneficiarios, con el fin de clarificar empíricamente lo que los clientes experimentan, tanto en el uso como en las interacciones ya no desde la mera perspectiva B2C (Business-to-client), sino también desde un enfoque A2A (Actor-to-Actor), una visión dado por [29] [30] con una orientación dinámica, interconectada y de sistemas para la creación de valor. Considerando la co-creación como un fenómeno, una experiencia que surge en el uso o interacción con la propuesta de valor realizada por un ente, se convierte en uno de los ejes centrales en el diseño de servicios centrado en el usuario. Al cobrar importancia la experiencia en el uso, surge el diseño centrado en el cliente. En él las emociones, el contenido simbólico, los significados y el lenguaje cobran relevancia [31]. Asume el diseño centrado en el cliente que en lugar de preguntar al cliente sobre sus necesidades, es más efectivo una investigación etnográfica que permita interpretar el uso y

II.

METODOLOGÍA

La exploración fenomenológica e interpretativa del fenómeno de estudio que es el valor co-creado, motiva utilizar la metodología del Análisis Fenomenológico Interpretativo (AFI) complementado con método narrativo para la propuesta metodológica. El objetivo de AFI es la exploración del proceso, mediante el cual, los participantes la dan sentido a su propia experiencia a través una reflexión [35], focalizándose en la exploración de la experiencia, los entendimientos, las percepciones y los puntos de vista de los participantes de la investigación [36]. La metodología predominante en el presente trabajo es el Análisis Descriptivo de La Experiencia en el Servicio (ADES) que combina la narrativa, el Análisis Fenomenológico Interpretativo y la filosofía del lenguaje, teniendo como elemento central para el análisis el acto de habla. ADES convierte las experiencias de los beneficiarios de la co-creación, los significados y los aprendizajes en un mundo de vida individual y colectivo, de manera que lo que los beneficiarios presentan como historia, sea el resultado de su interpretación y percepción [37] de ese mundo de vida y su experiencia en el uso de un servicio específico. La elicitación de estos elementos de valor mediante el manejo del lenguaje aflora la intersubjetividad de la experiencia, que sin un análisis previo es un pensamiento intuitivo [38] requiriendo para su análisis una estructuración lógica. ADES con la utilización de las expresiones lingüísticas, influenciadas por el tiempo según [39], extraen los efectos de la co-creación en la conciencia de los beneficiarios en el momento de la representación de su mundo de vida en el uso de un servicio. El análisis de estas representaciones en ADES se realiza acorde con la concepción de Russell acerca del pensamiento científico, el cual se fundamenta en el análisis lógico del lenguaje [40]. En nuestro caso, lo que los beneficiarios narran es el mundo de vida que ellos viven con

CISTI 2015 | 182

los niños a diario, son sus intérpretes para efectos de la investigación. La actividad exploratoria que se realizó, fue una investigación etnográfica con beneficiarios (padres de familia y profesores) que tuvieran una experiencia con niños autistas. Se visitó una institución de educación dedicada especialmente a niños con trastorno del espectro autista. En esta actividad se involucraron 1 fonoaudiólogo, 2 sicólogos, 1 experta en tecnología asistiva 1 padre de familia y 6 niños. III.

RECOLECCIÓN DE DATOS

En ADES el uso del lenguaje es concreto en la recolección de la historia narrativa que se solicita a los entrevistados. Con las preguntas realizadas, se solicita que se narre, en forma concisa en la experiencia que los atributos les generarían a los niños, usando un software interactivo que los involucre en actividades lúdicas para aprender las rutinas del baño Figura 1.

Figura 3 Diagrama Causal de la impronta (Modelo Causal para el estudio fenomenológico de niños con trastorno del espectro autista)

La Figura 4 describe un ejemplo de los elementos de valor por dimensión que pueden ser obtenidos de los registros en el software desarrollado para la aplicación de la metodología ADES. El software tiene mapeadas cada una de las dimensiones y permite el registro de los elementos de valor que las componen. Los elementos de valor constituyen los requerimientos funcionales y no funcionales de la aplicación a desarrollar que son luego implementados por medio de la ingeniería de requisitos. V.

RESULTADOS

El registro de los elementos de valor Figura 2 en el software utilizado para tratamiento de los Arquetipos Sistémicos, son la base para el empleo de la ingeniería de requisitos en el desarrollo la aplicación interactiva a ofrecer a la comunidad de niños con trastorno del espectro autista.

Figura 1 Escenario de la actividad: ir al baño

Las expresiones concisas (actos de habla) se consignan en los núcleos colaborativos Figura 2 diseñados en ADES.

Figura 4 Registo en software de elementos de valor

Figura 2 actos de habla capturados en núcleo colaborativo [41]

IV.

LA IMPRONTA

El modelo de la Figura 3 expresado en un diagrama modelado en dinámica de sistemas y denominado el Arquetipo Sistémico [41] [42], es el resultado de la identificación de los elementos de valor de cada una de las dimensiones que componen la impronta.

Las dimensiones que componen la impronta en la metodología ADES son Calidad (Ca), Expectativas (Ex), Impulsores, Habilidades (Ha) y Sacrificios (Sa). Cada una de éstas y sus elementos de valor, son extraídos estructuradamente del software del sistema Figura 5 y clasificados como requisito funcional o no funcional en el desarrollo del aplicativo.

CISTI 2015 | 183

mensajes amigables, simples y claros; programados para activarse de manera inteligente. Un diseño que facilita y apoya a los padres en la enseñanza de estas actividades e impulsa el aprendizaje y desarrollo de las habilidades de cuidado personal en los niños, quienes deben enfrentar sus primeros retos. En conjunto, Nico Explora tu Baño crea un saludable equilibrio entre el aprendizaje y la diversión que motiva la autonomía de los pequeños y contribuye a desarrollar sus hábitos de higiene, a su vez refuerza habilidades cognitivas complementarias como la resolución de problemas, la atención, la motricidad fina y la proactividad.

Figura 5 Transformación a requisitos

Del análisis de los elementos de valor sale el diseño de cada uno de los elementos: la espuma, el color llamativo del champú, la forma del jabón, entre otros como se visualiza en las Figura 6 Figura 7.

Figura 6 Elementos del baño

Figura 8 Diseño estructural para el aplicativo

VI.

Figura 7 Elementos del baño

Todos los requerimientos funcionales y no funcionales identificados son recopilados y consignados, tal como se puede observar en el diseño estructural tu Baño Figura 8 Este desarrollo presenta a los niños una aventura en la que se acompaña a un pequeño personaje, creado como un referente empático, Nico. Quien les ayudará a aprender las actividades diarias que se pueden hacer dentro del baño. El juego cuenta con retos educativos que incluyen: lavarse las manos, ir al baño, tomar una ducha o limpiar sus dientes; guiados paso a paso por la voz de un narrador en diferentes idiomas (español e inglés). Además, antes de entrar a jugar en cada escenario los niños deberán, a través de actividades de asociación, reconocer y escoger los elementos indicados para completar de manera satisfactoria cada reto.

CONCLUSIONES Y TRABAJOS FUTUROS

ADES, como metodología enfocada en la elicitación de los elementos de valor fruto de la experiencia en el servicio, es un apoyo importante para configurar los requisitos funcionales y no funcionales en el desarrollo de un software, un aporte decidido al diseño y desarrollo emocional. Involucrar a la red de beneficiarios de la co-creación de valor en el desarrollo de una aplicación para niños con autismo, hace que el mundo de vida que no pueda ser expresado por el usuario directo de un servicio, pueda ser interpretado a partir de las interacciones con las redes de beneficiarios. Trabajos futuros se pueden desarrollar para realizar una comparación entre el valor potencial diseñado por los desarrolladores y el valor dinámico o percibido en el uso por los beneficiarios y usuarios. Adicionalmente la evolución de la aplicación será soportada en la metodología ADES para el desarrollo de futuros casos de uso. REFERENCIAS [1]

El programa cuenta con estímulos auditivos, gráficos y sensoriales desarrollados especialmente para transmitir

CISTI 2015 | 184

D. Varela, M. Ruíz, M. Vela, L. Munive, y G. Hernández, «Conceptos actuales sobre la etiología del autismo», Acta Pedriátrica México, vol. 32, n.o 4, pp. 213-222, 2011.

[2]

[3]

[4]

[5]

[6] [7]

[8] [9]

[10]

[11]

[12] [13] [14] [15]

[16] [17] [18] [19] [20] [21]

M. Yunta, J. Antonio, P. B. Montserrat, B. Salvadó Salvadó, y A. Valls Santasusana, «Autismo: identificación e intervención temprana», Acta Neurol Colomb, vol. 22, n.o 2, pp. 97-105, jun. 2006. M. Cortez Bellotti de Oliveira y M. M. Contreras, «Diagnóstico precoz de los trastornos del espectro autista en edad temprana (1836 meses)», Arch. Argent. Pediatría, vol. 105, n.o 5, pp. 418 426, 2007. A. García, «Material multimedia sobre autismo como medio instruccional para la enseñanza de dichos contenidos entre estudiantes del Instituto Pedagógico de Caracas», Rev. Investig., vol. 35, n.o 74, pp. 65-80, dic. 2011. P. Pichot, «Manual diagnostico y estadístico de trastornos mentales», 1995. [En línea]. Disponible en: http://www.casadellibro.com/libro-dsm-5-manual-diagnostico-yestadistico-de-los-trastornos-mentales-5ed/9788498358100/2381148. [Accedido: 24-feb-2015]. M. E. S. Tobón, «Detección temprana del autismo ¿Es posible y necesaria?», Rev. CES Psicol., vol. 5, n.o 1, pp. 112-117, jun. 2012. J. Bastanta, M. Bravo, L. Cagigas, A. Torres, y V. Pelayo, «Proyecto de investigación. Análisis de la relevancia de las tablet en el ámbito comunicativo del alumno TEA», Universidad de Cantabria, 2014. L. M. Passerino y L. M. C. Santarosa, «Autism and digital learning environments: Processes of interaction and mediation», Comput. Educ., vol. 51, n.o 1, pp. 385-402, ago. 2008. S. Parsons, A. Leonard, y P. Mitchell, «Virtual environments for social skills training: comments from two adolescents with autistic spectrum disorder», Comput. Educ., vol. 47, n.o 2, pp. 186-206, sep. 2006. Y. Cheng, D. Moore, P. McGrath, y Y. Fan, «Collaborative virtual environment technology for people with autism», en Fifth IEEE International Conference on Advanced Learning Technologies, 2005. ICALT 2005, 2005, pp. 247-248. H. M. Zakari, M. Ma, y D. Simmons, «A Review of Serious Games for Children with Autism Spectrum Disorders (ASD)», en Serious Games Development and Applications, M. Ma, M. F. Oliveira, y J. B. Hauge, Eds. Springer International Publishing, 2014, pp. 93-106. M. Rosvall, «Information Horizons in a Complex World», Sweden, 2006. A. Helkkula, «Service Experience in an Innovation Context Tesis: Anu», Helsinski, 2013. R. F. Lusch y S. L. Vargo, Service-Dominant Logic: Premises, Perspectives, Possibilities. Cambridge University Press, 2014. A. Helkkula y M. Holopainen, «Service innovation as an experience: differences between emploee and user narratives», en User-based Innovation in Services, Edward Elgar Publishing, 2011, pp. 281-302. Henning Droege, Dagmar Hildebrand, y Miguel Forcada, «Innovation in services: present findings, and future pathways», J. Serv. Manag., vol. 20, n.o 2, pp. 131-155, 2009. Nigel Cross, Engineering Design Methods Strategies for Product Design. John Wiley & Sons, Ltd., 2000. M. J. Smith, R. J. Koubek, G. Salvendy, y D. Harris, Usability Evaluation and Interface Design: Cognitive Engineering, Intelligent Agents, and Virtual Reality, vol. 1. CRC press, 2001. M. J. Smith, R. J. Koubek, G. Salvendy, y D. Harris, Usability Evaluation and Interface Design: Cognitive Engineering, Intelligent Agents, and Virtual Reality. CRC Press, 2001. J. (Roger) Jiao, Y. Zhang, y M. Helander, «A Kansei mining system for affective design», Expert Syst. Appl., vol. 30, n.o 4, pp. 658-673, may 2006. M. G. Helander y M. po Tham, «Hedonomics-affective human factors design», Ergonomics, vol. 46, n.o 13/14, pp. 1269-1272, 2003.

[22] H. M. Khalid y M. G. Helander, «Customer Emotional Needs in Product Design», Concurr. Eng., vol. 14, n.o 3, pp. 197-206, ene. 2006. [23] C. K. Prahalad y V. Ramaswamy, «Co-creating unique value with customers», Strategy Leadersh., vol. 32, n.o 3, pp. 4 9, 2004. [24] S. Vargo y R. Lusch, «Evolving to a New Dominant Logic for Marketing», J. Mark., vol. 68, pp. 1-17, ene. 2004. [25] R. F. Lusch y S. L. Vargo, «Service-dominant logic: continuing the evolution», J. Acad. Mark. Sci., vol. 36, n.o 1, pp. 1-10, 2008. [26] R. Lusch y F. Webster, «Marketing´s Responsability for the Value of the Interprise», Mark. Sciens Inst., 2010. [27] D. T. Blecker y D. G. Kreutler, «An Advisory System for

[28] [29] [30] [31] [32] [33] [34]

en Proceedings of the 4 th Workshop on Information Systems for Mass Customization (ISMC 2004) at the fourth International ICSC Symposium on Engineering of Intelligent Systems (EIS 2004), 2004. C. Grönroos y P. Voima, «Critical service logic: making sense of value creation and co-creation», J. Acad. Mark. Sci., vol. 41, n.o 2, pp. 133-150, mar. 2013. S. L. Vargo, H. Wieland, y M. A. Akaka, «Innovation through institutionalization: A service ecosystems perspective», Ind. Mark. Manag., 2015. S. L. Vargo systems perspective of the market», Ind. Mark. Manag., vol. 40, n.o 2, pp. 181-187, feb. 2011. R. Verganti, «Design, Meanings, and Radical Innovation: A Metamodel and a Research Agenda*», J. Prod. Innov. Manag., vol. 25, n.o 5, pp. 436-456, sep. 2008. O. Demirbilek y B. Sener, «Product design, semantics and emotional response», Ergonomics, vol. 46, n.o 13-14, pp. 13461360, nov. 2003. X. Xu, H.-H. Hsiao, y W. W.-L. Wang, «FuzEmotion as a backward kansei engineering tool», Int. J. Autom. Comput., vol. 9, n.o 1, pp. 16-23, feb. 2012.

of kansei design», Int. J. Des., vol. 7, n.o 2, p. 83null, 2013. [35] E. Chapman y J. A. Smith, «Interpretative Phenomenological Analysis and the New Genetics», J. Health Psychol., vol. 7, n.o 2, pp. 125-130, ene. 2002. [36] J. A. Smith, P. Flowers, y M. Larkin, Interpretative Phenomenological Analysis: Theory, Method and Research. SAGE, 2009. [37] B. Czarniawska, Narratives in social science research. London: SAGE Publications, Inc, 2004. [38] G. Vargas, «El sentido cabe fenomenología y hermenéutica. Hacia una fenomenología hermenéutico-trascendental», Acta Fenomenol. Latinoam., vol. 3, pp. 463-477, 2009. [39] M. Heidegger, Being and Time, Edición: Reprint. New York: Ecco, 2008. [40] B. Russell, La perspectiva científica. España: Sarpe S.A, 1983. [41] M. Aristizabal, G. Urrego, A. Perez, J. Echeverry, L. Gonzalez, y M. Gonzalez, «Systemic archetypes for value co-creation based on collaborative cores: Case study at a telecommunication company», en 2014 9th Iberian Conference on Information Systems and Technologies (CISTI), 2014, pp. 1-4. [42] M. Aristizábal, M. Aristizábal, J. Echeverri, L. Gonzalez, y G. Urrego, «Medición del valor Co-creado por medio de Arquetipos Sistémicos y Lógica Difusa», Rev. Politécnica, vol. 17, pp. 47-57, 2013.

CISTI 2015 | 185

Artigos Poster da Conferência

CISTI 2015 | 186

Transição de IPv4 para IPv6 Existe uma metodologia óptima?

IPv4 to IPv6 transition There is a great methodology? Nuno Miguel Carvalho Galego

Pedro Maia Malta

Escola de Comunicação, Arquitectura, Artes e Tecnologias da Informação Universidade Lusófona de Humanidades e Tecnologias Lisboa, Portugal [email protected]

Escola de Comunicação, Arquitectura, Artes e Tecnologias da Informação Universidade Lusófona de Humanidades e Tecnologias Lisboa, Portugal [email protected]

Resumo - Neste trabalho pretende-se mostrar as técnicas

para uma transição de IPv4 para IPv6 tal como fazer uma avaliação das suas vantagens e desvantagens. Segundo a IANA (Internet Assigned Numbers Authorithy) os endereços IPv4 estão quase esgotados, e a transição para IPv6 é a única solução para o crescimento contínuo da Internet. Contudo o IPv4 não é compatível com o IPv6 mas, ainda existem bastantes redes a utilizar o IPv4 logo, é necessário criar métodos de transição para que os protocolos funcionem em simultâneo até que haja a possibilidade de realizar uma transição total para o protocolo IPv6. A transição terá de ser feita desta forma de modo a que a rede consiga comunicar tanto com redes em IPv4 como IPv6. É importante perceber que esta mudança não irá acontecer da noite para o dia e vai ser um processo que irá demorar algum tempo. Quem não fizer esta mudança atempadamente, no futuro poderá ter mais custos, pois não haverá tempo para preparar um plano de transição. A transição de IPv4 para IPv6 é um processo complexo, uma vez que envolve uma serie de mudanças na estrutura da rede com o uso de novos endereços de IP. Para fazer esta transição com sucesso é necessário escolher qual o método de transição mais adequado para a empresa ou organização de modo a fazer uma transição eficiente, com foco nas vantagens do protocolo IPv6. Palavras-chave - IPv4, IPv6, Transição Abstract - This work will be shown the advantages of techniques for a transition from IPv4 to IPv6 as an assessment of their advantages and disadvantages. According to IANA (Internet Assigned Numbers Authorithy) IPv4 addresses are almost exhausted, and the transition to IPv6 is the only solution to the continuing growth of the Internet. However IPv4 is not compatible with IPv6 but, still there are many IPv4 networks that use that protocol so, it is necessary create a transition method and both protocols work simultaneously until there is the possibility of making a full transition to the IPv6 protocol. The transition

will have to be done this way so that the network can communicate with both IPv4 and IPv6 networks. It is important to realize that this change will not happen overnight, and it's going to be a process that will take some time. Those who do not make this change in time in the future may have more costs because there will be no time to prepare a transition plan. The transition from IPv4 to IPv6 is a complex process, since it involves a series of changes in the network structure with the use of new IP addresses. To do a successfully transition is necessary choose the most appropriate method of transition for the company or organization to make an efficient transition, focusing on IPv6 advantages. Keywords

Ipv4, IPv6, Transition I.

INTRODUÇÃO

Antes de iniciar este trabalho sobre transição entre redes que utilizam o protocolo IPv4 (Internet Protocol Version 4) para redes que utilizam o protocolo IPv6 (Internet Protocol Version 6), é necessário relembrar alguns pontos sobre o funcionamento das redes e, em especial, da Internet. Uma rede pode ser definida como um conjunto de computadores e outros equipamentos interligados e capazes de comunicar entre si utilizando um conjunto de regras, ou protocolos. O IP (Internet Protocol), é um protocolo que foi projectado para criar ligações entre diferentes redes, possibilitando a comunicação entre dispositivos. O protocolo IP teve origem no ano de 1970 pela ARPANET, esta rede foi sendo expandida e interligada a outras formando em 1980 um vasto conjunto que passou a ser conhecido por Internet. O protocolo IP fornece um serviço que é usado por outros protocolos de nível superior (camada 4 do modelo OSI), tais como o TCP (Transmission Control Protocol) e o UDP (User Datagram Protocol). e afins) Cada dispositivo (o que inclui smartphones, ligado à Internet possui um número de IP único, que serve para identificar o computador na Internet.

CISTI 2015 | 187

Actualmente a maior parte dos computadores utilizam o protocolo IPv4 (Internet Protocol Version 4), mas este protocolo está a ficar esgotado e a falta de endereços IPv4 irá implicar a mudança para um novo protocolo com mais capacidade de endereçamento. Nos anos 90 foi criado o IPv6 que veio resolver vários problemas do IPv4, entre eles a falta de endereços. A expectativa é que o IPv6 substitua gradualmente IPv4, de tal forma que as duas versões possam coexistir durante o período de transição. Para acontecer uma passagem do protocolo IPv4 para o protocolo IPv6 teremos de recorrer a métodos de transição que funcionem com ambos os protocolos, já que vão continuar os dois em funcionamento durante alguns anos. Alguns deles são: Pilha dupla ou camada de IP dupla (Dual Stack); Túneis IPv6 sobre IPv4 (Tunneling); Tradução (Translation); A utilização de cada um deles, ou eventualmente usar uma combinação entre métodos, é um tema reconhecidamente trabalhado em anteriores trabalhos científicos, com aplicação e medição com métricas associadas. Neste sentido, esta investigação ainda numa fase inicial, mais do que responder à quespretende listar recomendações na utilização de cada método pela comparação das suas implementações num determinado ambiente, que possam servir de guião para futuras utilizações dos mesmos. II.

ENQUADRAMENTO CONCEPTUAL

A. Revisão da literatura Diversos autores (Amoss e Minoli, 2008; Blanchet, (2006; Loshin, 2004) estudaram vários métodos de transição, mas ao analisar trabalhos realizados na área e obras publicadas em livros foi possível chegar à conclusão de que não há um método de transição ideal, e que tem de ser analisado cada caso isoladamente. Visto cada caso ser um caso em que cada autor tem o seu método de transição preferido o qual defende ser o melhor em função de outros. B. Protocolo IPv4 e IPv6 Protocolo IPv4 O IPv4 foi criado pela ARPANET (Advanced Research And Projects Agency Network) e este protocolo funciona na camada 3 do modelo OSI também conhecida por camada de rede (Network) e utiliza endereços de 32 bits que são escritos me forma de quatro octetos em base decimal separados por pontos (exemplo: 192.168.2.128). O espaço de endereçamento do IPv4 não é pequeno, visto que existem 4 294 967 296 endereços que estão distribuídos em 5 classes em que apenas 3 delas podem ser usadas: Classe A - 10.0.0.0 - 10.255.255.255 (prefixo 10/8) Classe B - 172.16.0.0 - 172.31.255.255 (prefixo 172.16/12)

Classe C - 192.168.0.0 - 192.168.255.255 (prefixo 192.168/16) 224.0.0.1 139.255.255.254 (reservados para Classe D endereçamento Multicast) Classe E 240.0.0.1 254.255.255.254 (reservados para uso futuro/experimental) Protocolo IPv6 O IPv6 foi criado nos anos 90, define-se como o protocolo da nova geração para a Internet e foi criado para resolver o problema que existia com o IPV4 que era a exaustão ou esgotamento de endereços. O IPv6 é constituído por 128 bits em vez dos 32 do IPv4 e destaca-se entre muitas outras coisas pela eliminação do NAT. A quantidade de endereços disponíveis pode chegar a 340.282.366.920.938.463.463.374.607.431.768.211.456, o que é um número absurdamente alto! Os endereços passam a ser representados por números heexadecimais de 16 bits, sentar as letras com maiúsculas ou minúsculas, e algumas abreviações são possíveis, como a omissão de zeros à esquerda e a representação de um conjunto contínuo de zeros por Os endereços IPv6 são escritos em oito grupos de quatro dígitos hexadecimais (exemplo: 2001:0db8:85b3:1319:8c2e: 0370:7344). C. Métodos de Transição As transições de protocolos não são simples pois implicam uma análise da situação no que toca a equipamentos, fazer uma serie de estudos no que toca a endereçamento, disponibilidade do ISP para fornecer um endereço IPv6, custos que a transição venha a ter e no final fazer a respectiva transição. Nesta fase de transição é necessário que ambos os protocolos funcionem de simultâneo, pois mesmo que dois nós estejam a funcionar com o protocolo IPv6 é necessário que haja interoperabilidade com o protocolo IPv4 pois pode haver o caso de algumas empresas ou organizações não terem procedido à mudança e ser necessário comunicar também com estas. Para que os protocolos IPv4 e IPv6 funcionem em simultâneo existem vários mecanismos, entre os quais: Pilha dupla ou camada de IP dupla (Dual Stack); Túneis IPv6 sobre IPv4 (Tunneling); Tradução (Translation); Prevê-se que ambos os protocolos funcionem lado a lado durante algum tempo, mas a médio ou longo prazo o IPv6 substituirá o IPv4. o Pilha Dupla Com uma configuração em pilha dupla (RFC 2893), os protocolos IPv4 e o IPv6 são executados em simultâneo. O IPv4 é usado para comunicar com redes em IPv4 e o IPv6 é usado para se comunicar com redes em IPv6. As decisões sobre o fluxo no nó são com base no cabeçalho IP para onde

CISTI 2015 | 188

os pacotes são recebidos a partir das camadas mais baixas. Quando implementado em hosts, switches e routers na rede, estes também devem executar ambos os protocolos para que possa haver comunicação. Os tipos de endereço normalmente vêm das pesquisas de DNS, a pilha adequada é escolhida em resposta dos tipos de registo DNS. Se a resposta DNS contém um endereço IPv4, então o nó usará IPv4, onde irá ser retornado um registo tipo A. Se a resposta DNS contém um endereço IPv6, em seguida, o nó usará IPv6, onde irá ser retornado um registo tipo AAAA. O registo AAAA faz o mapeamento do nome de um host para um endereço IPv6, sendo equivalente ao registo A do IPv4. Muitos sistemas operativos já funcionam em pilha dupla, como por exemplo, Microsoft Windows XP® e seguintes e o Windows Server® 2003 e seguintes já implementam o que é chamado de próxima geração de Transmission Control Protocol / Internet Protocol (TCP / IP), que incorpora a arquitectura pilha dupla.

Os túneis automáticos não precisam de grandes configurações manuais e podem variar entre os mecanismos 6TO4 (RFC3056), ISATAP (RFC4214) e Teredo (RFC4380) e Tunnel Broker (RFC3053). Túneis Manuais - Um túnel configurado de forma manual é equivalente a uma ligação permanente entre dois nós IPv6 através de um backbone IPv4, onde existe um conhecimento prévio da rede e é pouco provável que venha a haver alterações sem aviso prévio. Para túneis manuais, os endereços IPv4 e IPv6 são configurados manualmente no túnel de origem e o túnel de destino. A determinação de quais os pacotes para túnel é feita através de uma tabela de roteamento nas extremidades do túnel.

Fig.2 Esquema de túnel manual 6TO4 - O mecanismo de transição 6to4 prevê a interligação de redes em IPv6 através de túneis automáticos em IPv4. A motivação para este método é permitir que as redes em IPv6 consigam comunicar com outras redes em IPv6 através de uma rede em IPv4. O encapsulamento automático, neste caso, é conseguido por meio de um router, denominado Router 6to4, na fronteira do domínio IPv6 e anexado ao IPv4. Cada router tem configurado uma conexão à rede IPv4 e a capacidade para criar de forma automática Túneis 6to4 em toda a rede IPv4 para interligar à rede IPv6.

Fig.3 Esquema de túnel 6to4 Fig.1 Método de transição com pilha dupla o Túneis A técnica dos túneis é muitas vezes usada para sobrepor um novo protocolo como o IPv6 sobre uma rede em IPv4, sem necessidade de realizar qualquer mudança nos routers, encapsulando o conteúdo do pacote IPv6 num pacote IPv4, mas também pode ser usada para encapsular pacotes IPv4 em IPv6, este tipo de túneis irá ser usado numa fase mais avançada da transição quando o protocolo IPv6 estiver implementado na maior parte das redes. ndependentemente do ponto de ent ada e de aída do túnei , ambo o ponto têm de te um ende eço v4 e um ende eço v6. im, em qualque ca o, o ponto de ent ada e de aída do túnei têm de te up te v4 e v6. Os túneis podem ser criados manualmente ou de forma automática, em que os que sejam criados de forma manual requerem intervenção nos dois extremos e requer ter total conhecimento sobre a rede em questão. Os túneis manuais são uma boa solução do ponto de vista de gestão em que sabe-se o que está do outro lado do extremo.

ISATAP A principal função do ISATAP (Intra-Site Automatic Tunnel Addressing Protocol) é permitir que redes IPv4 comuniquem com redes IPv6 de forma automática através de um túnel. Embora o mecanismo de encapsulamento ISATAP seja semelhante a outros túneis automáticos, ISATAP foi projectado para o transporte de pacotes IPv6 dentro de um local onde uma infra-estrutura nativa IPv6 ainda não está disponível. ISATAP é semelhante ao mecanismo de 6to4 na medida em que utiliza o IPv4 como uma camada de ligação dos nós IPv6, criando uma ligação virtual através da rede IPv4. A principal diferença é que, ao contrário 6to4, ISATAP faz não assume uma infra-estrutura IPv4 multicast, o que torna-o ligeiramente mais complexo que o mecanismo 6to4.

CISTI 2015 | 189

Fig.4 Esquema de túnel ISATAP

Teredo Teredo é uma técnica de transição automática que permite que nós localizados atrás de Network Address Translations (NAT), obtenham conectividade IPv6 utilizando túneis em IPv4, usando o protocolo UDP. Existem dois elementos importantes no Teredo, o Teredo Server e o Teredo Relay. A conexão é realizada através de um Teredo Server, que a inicia após determinar o tipo de NAT usado na rede do cliente. Em seguida, caso o nó destino possua IPv6 nativo, um Teredo Relay é utilizado para criar uma interface entre o cliente e o nó destino. A sua utilização não é recomendada, dado que não é muito eficiente, tem alta taxa de falhas e algumas considerações de segurança. Contudo, é importante conhecê-la bem, já que está implementada e é utilizada de forma automática em algumas versões do Windows.

Fig.6

Esquema de Tunnel Broker

o Tradução Os mecanismos de tradução permitem que equipamentos que usem IPv4 consigam comunicar com outros que usam IPv6, e vice-versa por meio da conversão dos pacotes. São normalmente utilizados para permitir que redes que utilizam o protocolo IPv4 e que não possuam suporte para o protocolo IPv6 consigam comunicar entre si com recurso a um mecanismo de tradução que irá fazer a transição de IPv6 para IPv4 e vice-versa. Existem dois métodos de tradução com IPv6 que normalmente são utilizados, sendo eles o NAT-PT (RFC2766) e o SIIT (RFC 2765).

Fig.5 Esquema de túnel Teredo Tunnel Broker - É um serviço que permite que dispositivos numa rede IPv6 e ou IPv4, obtenham conectividade por meio de um túnel com um serviço de Tunnel Broker na Internet a uma rede em IPv6. O Tunnel Broker tem uma forma de funcionamento simples, semelhante ao 6to4, porém com algumas diferenças. Primeiro tem de se registar num serviço de Tunnel Broker e fazer as respectivas configurações e após a instalação, de seguida o software liga-se através de um Tunnel Setup Protocol ao Tunnel Broker, após a autenticação o túnel solicita um novo túnel ao Tunnel Server e o utilizador consegue aceder a qualquer rede em IPv6. Existem três grandes fornecedores de serviços de Tunnel Broker na Internet, sendo eles: SixXS - http://www.sixxs.net Hurricane Electric Tunnel - http://www.he.net ou https://tunnelbroker.net/ Freenet6 - http://gogo6/Freenet6

O NAT-PT (Network Address Translation with Protocol Translation) é semelhante ao NAT do IPv4, mas com tradução do protocolo, o que permite a comunicação entre redes em IPv6 com IPv4. O NAT do IPv4 traduz um endereço privado IPv4 num endereço público o que permite comunicar com uma rede em IPv4, já com o NAT-PT, a tradução é diferente em que um endereço em IPv6 pode comunicar com um endereço em IPv4. O NAT-PT deve ser usado com o DNS-Application Level Gateway (DNS-ALG), isto porque o NAT-PT funciona apenas num só sentido em que apenas é possível a comunicação no sentido de IPv6 para IPv4, mas com o DNS-ALG é possível configura-lo para que funcione de forma bidireccional. O NAP-PT devido aos inúmeros problemas, foi tornado obsoleto pela RFC 4966 tendo passado a O SIIT (Stateless IP/ICMP Translation Algorithm) veio para substituir o NAT-PT visto este mecanismo de tradução ter muitos problemas, a única diferença é que pode ser usado para traduzir endereços IPv6 para IPv4 e vice-versa.

Fig.7 Esquema do NAT-PT e SIIT

CISTI 2015 | 190

III.

METODOLOGIA

No sentido de propor recomendações na utilização de cada método de transição de IPv4 para IPv6, a abordagem inicial será quantitativa, pois o foco está na recolha de factos e no estudo da relação entre eles. Prevendo-se como resultado desta abordagem inicial, um mapa comparativo dos principais mecanismos de transição, realçando pontos fortes e fracos de cada método, usaremos uma abordagem qualitativa para analisar os dados recolhidos e propor as recomendações necessárias na utilização de cada um. A investigação usa por isso uma abordagem mista, na qual usaremos procedimentos simultâneos, convergindo dados quantitativos e qualitativos, com o fim de fornecer uma análise abrangente do problema em pesquisa. Pretendemos recolher dados, numa primeira fase de forma quantitativa onde o instrumento é a utilização de métricas para aferir dos pontos fortes e fracos de cada método, numa segunda fase de forma qualitativa, onde o instrumento é um questionário, que acompanha o mapa de resultados da fase anterior (Creswell 2003). Os resultados desta pesquisa serão os resultados da comparação dos principais mecanismos de transição, com posterior comparação dos prós e contras, para propor com base na análise qualitativa, recomendações na utilização de cada método, sempre tendo em conta a realidade da empresa ou organização, já que não existe uma melhor solução, nem o processo de transição deve ser específico para cada caso. Neste sentido, e dada a revisão de literatura feita, para fazer uma avaliação de todos os métodos de transição foi utilizado o software GNS3 para testar os 3 métodos de transição de IPv4 para IPv6 (Pilha Dupla, Túneis e Tradução). Tanto os métodos de transição de pilha dupla, túneis e tradução, são boas formas de fazer uma transição suave, mas é importante ter a noção que cada caso é um caso. À primeira vista o método de pilha dupla seria a melhor opção isto porque funciona com os dois protocolos em simultâneo, mas tem algumas desvantagens como por exemplo o investimento para atualizar os equipamentos e adquirir novos caso seja necessário. Tendo em conta os tempos de crise que vivemos em muitas empresas este investimento apenas será possível caso não haja outra alternativa. Para empresas ou organizações que não possuam nenhum endereço de IPv4 publico e apenas possuam um endereço IPv6 (Como é o caso da Asia onde já não existem endereços IPv4 públicos) as técnicas de tradução e túneis são as únicas soluções para comunicar. Estas duas técnicas têm uma clara desvantagem em relação à técnica de pilha dupla que é o atraso provocado na rede pelo encapsulamento dos pacotes e pela tradução. Outro caso onde a tradução pode ser útil é caso seja pretendido implementar uma transição de IPv4 para IPv6, mas é impossível faze-la quer seja por causa de routers mais antigos que não têm memória suficiente ou software compatível para funcionar com as últimas tecnologias, como por exemplo IPv6 a tradução é a solução ideal para este tipo de casos. Com base nas informações a partir da revisão de literatura, testes e pesquisa, foi apresentada uma visão geral de alguns

métodos de transição. Cada técnica possui atributos individuais e desempenha um papel importante no processo de transição Abaixo está a tabela que contem as vantagens e desvantagens para os três principais métodos de transição.

Pilha Dupla

Túneis

Tradução

Vantagens

Desvantagens

- Fácil de implementar; - Redes podem comunicar com redes IPv4 e IPv6 directamente; - Mais rápido que os métodos de transição de tradução e túneis, pois os pacotes são transferidos directamente;

- Duas tabelas de roteamento, o que irá consumir mais memória nos routers e computadores; - Pode requerer algum investimento caso os equipamentos existentes não suportem o IPv6; - Precisa de update do servidor de DNS; - Políticas de segurança e de firewall têm de ser para os protocolos IPv4 e IPv6; - Os pacotes são encapsulados, o que irá causar lentidão e atrasos na entrega; - Maior utilização do CPU, pois o processo de encapsulamento gera mais esforço no CPU; - Os pacotes precisam de ser traduzidos, o que causará lentidão e atrasos na entrega; - Redução da largura de banda de rede, visto estar a ser utilizada para traduzir o protocolo;

- Basta configurar os endpoints; - Não necessita de gestão adicional;

- Permite que redes em IPv4 comuniquem com redes IPv6 e vice-versa sem update dos equipamentos; - Resolve facilmente o problema da incompatibilidade dos protocolos;

Este exemplo é ilustrativo do trabalho que se pretende fazer, onde numa fase posterior à identificação de vantagens e desvantagens, se propõe recomendações na utilização de cada método, por exemplo na implementação de processos de comunicação de dados de suporte numa organização ou mesmo num sector do mercado. IV.

CONCLUSÃO

Com o esgotamento dos endereços IPv4 é imperativo fazer uma transição das redes existentes para um novo protocolo, o IPv6, e para esse mesmo efeito existe um vasto conjunto de ferramentas de transição disponíveis em que cada uma delas tem as suas vantagens e desvantagens mas, não existe uma única melhor solução. O plano de transição é específico para cada caso. Começamos por abordar os protocolos IPv4 e IPv6 e depois de uma forma um pouco mais detalhada alguns dos me-

CISTI 2015 | 191

canismos de transição do protocolo IPv4 para o protocolo IPv6 e vice-versa. Com a exposição de um exemplo, podemos observar algumas vantagens e desvantagens de cada um deles. A investigação segue no sentido de implementar/testar os métodos de transição num determinado ambiente, no sentido de recomendar a utilização de cada um de forma mais adequada, quer tendo em conta os requisitos de negócio, quer os de tecnologias de informação. As organizações poderão ter um guia para a decisão de utilizar um ou mais métodos na eventualidade de estrategicamente estar definida a migração dos seus sistemas de comunicações de IPv4 para IPv6. V.

LIMITAÇÕES E TRABALHO FUTURO

Ficaram por discutir no presente trabalho os protocolos associados ao IPv6 tais como o DHCPv6, ICMPv6, os tipos de endereçamento IPv6 e os protocolos de roteamento para IPv6. De igual modo ficaram por abordar as ameaças de segurança que possam vir associadas ao uso do IPv6 ficando para trabalho futuro um estudo sobre a segurança no protocolo IPv6 e a sua transição de IPv4 para IPv6 e todos os problemas de segurança que poderão vir a acontecer visto que os problemas de segurança que existem no IPv4 também existem no IPv6 e ainda as novas vulnerabilidades exclusivas do IPv6. Outro possível tema para uma futura investigação é um estudo sobre o IPv6 em redes móveis. VI.

REFERENCIAS BIBLIOGRAFICAS

dores e a Internet: uma abordagem toPearson Addison Wesley.Gilligan, R.

a3. ed. São Paulo:

Nordmark E. R. Gillingan. E.Nordmark, R. Gillingan. (2005) nisms for IPv6 Hosts and Rout , RFC 4213.

sms for a-

Amoss, J. & Minoli, D. (2008). Handbook of IPv4 to IPv6 transition: Methodologies for institutional and corporate networks. Boca Raton: Auerbach Publications Brown, S. (2002). Configuring IPv6 For Cisco IOS. Rockland, Mass.: Syngress Media Hagen, S. (2014). IPv6 essentials - integrating IPv6 into your IPv4 network. O'Reilly. Graziani, R. (2013). IPv6 fundamentals: A straightforward approach to understanding IPv6. Indianapolis, IN: Cisco Press. Loshin, P. (2004). IPv6: theory, protocol, and practice. 2nd ed. San Francisco, CA: Morgan Kaufmann Publishers. hINNOV 2012 : The First International Conference on Communications, Computation, Networks and Technologies International Jornal Of Computer & Communications (IJCNC) Vol.6, No.5, September 2014 Wikipedia, Endereço IP, pt.wikipedia.org/wiki/Endereço_IP. Acedido a: 22 de Dezembro de 2014 às 23h. Wikipedia, v6, pt.wikipedia.org/wiki/IPv6. Acedido a: 22 de Dezembro de 2014 às 23h. Sellers, C. (2009). IPv6 Transition Mechanisms and Strategies, NTT Comunications. - Qualitative, Quantita-

EQUIPE, IPv6.BR, http://ipv6.br/entenda/transicao/. Acedido a: 20 de Dezembro de 2014 às 22h.

Inc., Second Edition, ISBN 0-7619-2441-8.

EQUIPE, IPv6.BR. http://ipv6.br/entenda/introducao/. Acedido a: 20 de Dezembro de 2014 às 22h. Blanchet, M. (2006). Migrating to IPv6: A practical guide to implementing IPv6 in mobile and fixed networks. England: J. Wiley & Sons

CISTI 2015 | 192

Estrategia de co-creación para el sector financiero colombiano: potencializando la banca más humana

Co-creation strategy for the Colombian financial sector: potentializing the bank more human Jorge Andres Metaute Cardona Ingeniero de Sistemas Bancolombia S.A. Especialización Gerencia de la Información - UdeM Medellín, Colombia [email protected] Resumen- Trabajar bajo la filosofía de co-creación le permite a la empresa identificar nuevas oportunidades de negocio, conocer las necesidades de los clientes, mejorar productos o servicios, solucionar problemas críticos en la organización, aumentar la satisfacción del cliente al conocer de primera mano sus necesidades, entre otros beneficios. La co-creación en el sector financiero es una herramienta hasta el momento poco explorada o mal aplicada, y si bien facilita el relacionamiento con el cliente, falta una conexión adecuada con la estrategia corporativa para vislumbrase como factor clave de éxito en procesos de innovación. Este artículo propone una estrategia de co-creación para la banca colombiana como herramienta diferenciadora que facilita la toma de decisiones y el establecimiento de relaciones sólidas y duraderas con los clientes mediante su vinculación en la dinámica corporativa. Palabras clave: co-creación; sector financiero; innovación abierta; TIC. Abstract Implementing the co-creation philosophy allows companies to identify new business opportunities, to know customers needs, to improve products and services, to solve critical problems inside the organization, increase the customers satisfaction to see firsthand their needs, among other benefits. Co-Creation in financial systems is a not deeply surveyed tool so far, and furthermore, it is not good applied in this domain. Although it eases the relation with the customer, there is no an adequate link with the corporate strategy, as a key factor in innovation processes. This paper proposes a Co-Creation strategy for colombian bank sector to serve as a differentiating tool which eases the process of making decisions as well as the establishment of solid and long-lived relations with customers by means of the link in corporate dynamics. Keywords: co-creation; financial sector; open innovation; ICT.

Liliana Gonzalez Palacio Docente e Investigadora Universidad de Medellín PhD(C) en Ingeniería UdeA Medellín, Colombia [email protected] I.

INTRODUCCION

Uno de los sectores más fuertes y con mayor desarrollo en la economía Latinoamericana es el financiero [1]. Esto se evidencia en indicadores como el número de empleos que genera en la región y la cantidad de usuarios que tiene en todo el continente, y es precisamente esto y la competencia por ganar nuevos mercados lo que ha llevado a replantear la estrategia corporativa de los bancos para ganar una posición diferenciadora frente a la competencia [1], surgiendo conceptos como el de la co-creación, que ayudan no solo a este fin, sino también a mejorar la percepción que tienen los clientes hacia las organizaciones agregando valor al servicio ofrecido por las entidades bancarias. Muchos años han pasado desde que el primer modelo de banca moderna apareciera en Italia y este evolucionara hasta como se conoce hoy en día, soportada en plataformas tecnológicas robustas y en estrategias de mercadeo diferenciadoras, llegando a conceptos muy bien desarrollados como los de Bankinter en España que ven en la co-creación una herramienta fundamental [2] y otros casos no tan desarrollados como los de Bancolombia [3] y Banco de Bogotá [4] para el contexto local Colombiano. Desafortunadamente falta mayor fuerza para explotar el concepto de co-creación y hacer de él un pilar en la toma de decisiones dentro de las organizaciones, ya que las iniciativas encontradas no son consistentes en el tiempo y se limitan a talleres extemporáneos con muestras limitadas de usuarios y que no están sustentados en campañas que impacten un gran número de usuarios. A la banca siempre se le ha acusado de cobrar unas elevadas tarifas por sus servicios, de ser distante y hasta arrogante con

CISTI 2015 | 193

sus clientes. Lograr que las personas cambien esa imagen negativa no es una tarea fácil. [5] La co-creación como estrategia que lleve a las entidades financieras a encontrar ese punto diferenciador en América Latina es algo que aunque ya tiene algún terreno ganado debe tomar mayor impulso para llevarla al punto en el cual se generen nuevos productos, servicios, estrategias de negocio y finalmente una mejora de la experiencia con el cliente [6] En sintonía con lo anterior la estrategia incorporada por el grupo Bancolombia da cuenta de una opción para construir relaciones a largo plazo con los clientes, colaboradores, accionistas y la comunidad en general [7] a partir del concepto de co-creación. Sin embargo, hasta el momento esta iniciativa tiene despliegue a nivel interno, sin impactar directamente a clientes y personal externo a la compañía, y requiere continuidad en el tiempo para lograr mayores resultados. A partir de una revisión de literatura y el trabajo de campo realizado con personal del sector bancario, en este artículo se propone una guía para hacer co-creación con clientes y demás actores del sector financiero como una herramienta de mejora en las relaciones y la experiencia de usuario. Se pretende convertir al cliente en un aliado que aporte al crecimiento de las organizaciones financieras. También se busca impactar el nivel interno en la cultura organizacional y a mediano plazo mejorar la imagen negativa que tiene este sector en el entorno colombiano. El resto del artículo se estructura así: en la sección II se presenta el marco teórico enunciando los conceptos teóricos que fundamentan la propuesta. En la sección III se aborda el método utilizado. En la sección IV se presenta un análisis de resultados y hallazgos al ejecutar el método ya especificado. En la sección V se presentan algunos desafíos encontrados. La sección VI se ocupa de detallar la solución propuesta y por último en la sección VII las conclusiones y trabajos futuros a realizar. II.

MARCO TEORICO

El concepto de co-creación es relativamente nuevo. Sus para crear o añadir valor a productos o servicios en un ejercicio conjunto, es decir, en un equipo inter y trans[8]. Se trata de un proceso mediante el cual el consumidor y la empresa están íntimamente involucrados en la creación conjunta de valor único para el consumidor final y sostenible para la empresa [9]. Existen diversas formas de llevar a la práctica la co-creación. Una de las posibilidades es mediante sesiones presenciales o face to face. Las ideas generadas en un grupo heterogéneo de stakeholders son mucho más efectivas que el ingenio individual y su incorporación en procesos de innovación se refleja en disminución de costos, tiempos más cortos para lanzamiento al mercado, entre otros [10] [11].

Teniendo en cuenta que la presente propuesta estará orientada hacia el sector bancario o financiero, vale la pena enunciar dos ejemplos de co-creación en la banca. El primero es Bankinter en España, institución que a finales del 2009 puso en marcha una iniciativa de co-creación mediada por TIC (Tecnologías de la Información y las Comunicaciones) con el fin de desarrollar nuevos productos y servicios. La idea de Bankinter gira en torno a la pregunta ¿Qué te falta? Esperan que los usuarios puedan aportar ideas, mejoras, sugerencias y en general cualquier cosa que ayude a mejorar la experiencia del usuario con los servicios que presta la organización. [12]. Bancolombia es el segundo ejemplo. Se trata de un referente local que busca a partir de la co-creación construir , es decir, humanizar el sector financiero ofreciendo a los clientes productos y servicios que realmente satisfagan las necesidades en varios niveles y mejoren la percepción negativa del sector. La consigna en este banco es [7]. III.

METODO UTILIZADO

La investigación se desarrolló a partir de los siguientes interrogantes: ¿Qué modelos de co-creación se han implementado en América Latina y España en el sector financiero en la última década?, ¿Cuál es el enfoque de los diferentes modelos de co-creación implementados en el sector financiero de América Latina y España? ¿Se ha implementado algún caso de co-creación en Colombia en la última década aplicado al sector financiero? ¿Los modelos implementados han sido persistentes en el tiempo, obedeciendo a una estrategia institucional o se limitan actividades aisladas de co-creación? Para resolver dichos interrogantes se exploraron artículos y portales web a la luz de un conjunto de descriptores de búsqueda. A cada aporte encontrado se le aplicaron los siguientes criterios de filtro para definir su pertinencia: Criterio 1: ¿La estrategia de co-creación encontrada pertenece al sector financiero latinoamericano o español? Criterio 2: ¿El artículo o el portal aborda la co-creación como una herramienta que obedece a una estrategia corporativa? Criterio 3: ¿La duración de la estrategia ha sido superior a un año? Adicional a esta revisión se realizó trabajo de campo mediante entrevistas semi-estructuradas a personal de una entidad bancaria (gerentes y directores que lideran los temas de cocreación en la organización). El instrumento permitió la recolección de información de primera mano acerca de las actividades realizadas en torno a los temas de co-creación. La entrevista aplicada estuvo compuesta por las siguientes preguntas:

CISTI 2015 | 194

1. ¿Cuáles son las experiencias de la entidad en actividades de co-creación, cómo nacieron, en qué áreas y quiénes lideraron el tema? 2. ¿Se trata de experiencias internas o también se manejaron actividades con público externo al banco? 3. ¿Cuál fue la duración de estas actividades, cómo fueron las sesiones de trabajo (un día, varios días o más largas)? 4. ¿Cuál fue el objetivo de estas actividades de co-creación, qué resultados arrojaron? 5. ¿Qué técnicas de co-creación se utilizaron y cómo se hizo su selección? 6. ¿De qué tamaño fueron los grupos de trabajo? 7. ¿Qué evidencia se generó de las sesiones de trabajo? IV.

ANALISIS DE RESULTADOS Y HALLAZGOS

A. Durante la revisión de literatura y portales Se identificó una debilidad grande en cuanto a textos científicos que hicieran referencia a co-creación en el sector financiero latinoamericano, esto posiblemente porque falta una inclusión fuerte por parte de las instituciones bancarias en sus planes estratégicos. Se evidencia también que la co-creación es señalada como la estrategia salvadora para el sector financiero en la crisis española y se invita a las empresas a hacerla un tema corporativo [7]. Como ejemplo relevante vale la pena mencionar a Bankinter, con su portal web que integra al sector financiero y a los usuarios para trabajar en el mejoramiento y la experiencia del servicio. Algunos interrogantes provocadores funcionalidades, servicios y demás aspectos que os gustaría encontraros gracias a Bankinter desde vuestros dispositivos puntuales hechas a los usuarios son ¿Qué servicios de pago te gustaría tener en tu móvil?, ¿Qué nuevas funcionalidades esperarías con ayuda de la localización móvil?, ¿Qué aplicaciones te gustaría integrar al servicio de banca móvil (por ejemplo, Facebook o Twitter)?. Todo esto permite finalmente tener una comunicación directa con el usuario. [2] Sin embargo no se identifica persistencia en el tiempo, factor imprescindible para que este tipo de iniciativas causen suficiente impacto en las organizaciones. En su mayoría estas propuestas extremos los clientes lo usan a manera de buzón para expresar su insatisfacción, lo cual se constituye en un peligro para la imagen de las organizaciones [12]. Otro hallazgo cuyo fundamento surge en la academia chilena, hace un llamado a la innovación en América Latina bajo el entorno financiero. Se encuentra una contextualización del manejo financiero y la economía en Latino América [13]. Otro caso que merece su mención es la empresa Tantum, que integra las estrategias de algunos bancos que implementan estrategias de co-creación. Esta firma consultora aborda el tema crucial de los derechos de autor, invitando a cambiar este concepto de propiedad privada y mostrando a los usuarios más una relación gana-gana donde todos salen beneficiados.

B. Durante el trabajo de campo En la entidad bancaria consultada no se tiene un lineamiento o una metodología bajo el nombre de co-creación, pero si se aplican técnicas similares que buscan generar interacción tipo buscando conocer las expectativas de empleados y clientes. Se identifican crédito hipotecario y gestión humana como áreas más susceptibles a la co-creación y procesos de transformación cultural y fusiones entre entidades que se han tenido en la organización. Se identificó además que las técnicas de co-creación más utilizadas en la entidad son: Lluvia de ideas (la más popular), 9 ventanas, SAFARI. Por lo general se utilizan sesiones de trabajo que no superan las 4 horas y con grupos de máximo 30 personas. Un hallazgo significativo en el trabajo de campo realizado en la entidad bancaria fue el de su campaña y ahora convertido en slogan institucional que Consiste en humanizar la banca como factor diferenciador de la competencia, incorporando conceptos de cercanía, calidez, confianza, gratitud, amor, inclusión, respeto y coherencia [14]. Este nuevo enfoque permite la creación y modificación de productos a partir de escuchar a sus clientes en una especie de nombrado así. cero pesos en costo a todos los estudios de crédito , pago anticipado del crédito de consumo y no costo por transacciones electrónicas [7] dan cuenta de una búsqueda continua en pro del cliente. Del trabajo de campo realizado también se destaca el sin número de proyectos que en el momento se están desarrollando y que van de la mano con la co-creación, los cuales nacieron de la metodología LEAN [16], principio enfocado en la mejora continua. Todo esto evidencia en fiduciaria , el proyecto de solución inmobiliaria y el proyecto de mejoramiento del servicio en fraudes . Los tiempos de duración de estos proyectos dependen de su complejidad, factor que también es insumo para determinar si se hacen talleres de co-creación o mesas de trabajo para comprensión de contexto y diseño del futuro. Durante el trabajo de campo además se corroboraron los beneficios tangibles de la co-creación en la entidad bancaria, y la importancia de medir y documentar los esfuerzos realizados para saber a ciencia cierta cuáles son las mejoras. Por ejemplo, uno de los gerentes que resolvió la entrevista indica una reducción de 85 a 14 días como tiempo para la estructuración de negocios, en tanto que ahora se administran 1000 negocios al mes en lugar de 700. En levantamiento de prendas se pasó de 20 días a 18 minutos para entregar la carta al cliente y proceder con el trámite ante el Tránsito respectivo.

CISTI 2015 | 195

Para los proyectos anteriores se utilizaron técnicas de cocreación como: mapeo de la experiencia del cliente, cadena de valor del proceso, análisis de causa efecto, lluvia de ideas y técnicas de creación de diseño futuro, análisis de seguimiento y control e implementación. Según la gerente encuestada, para la selección de la herramienta a utilizar, todo depende del tipo de problema a impactar. Por ejemplo si la brecha a cerrar es frente a tiempos de respuesta o de entrega, los tiempos se analizan muy bien con el mapeo de la cadena de valor, mientras que si se está abordando un problema de calidad, el análisis de causa efecto o los 5 porqué son técnicas apropiadas. V.

DESAFÍOS ENCONTRADOS

Una vez consolidado el trabajo anterior fue posible concluir que la co-creación en el sector bancario requiere mayor exploración, pero hay grandes posibilidades. Es necesario diseñar estrategias que tengan persistencia en el tiempo e involucrando a personal interno y externo a la organización. La mezcla entre empleados y clientes puede generar grandes desafíos y producir importantes resultados. En todo caso, se hace imprescindible contar con el apalancamiento desde la alta dirección para lograr cambios estructurales y políticas a mediano y largo plazo. Se persigue darle continuidad y mayor mediante la estandarización y configuración de ejercicios de co-creación. De esta manera se logrará trascender los límites de la empresa para escuchar que cada vez más clientes están satisfechos con los servicios financieros recibidos. VI.

SOLUCION PROPUESTA

Se trata de institucionalizar las sesiones de co-creación bajo un conjunto de parámetros bien establecidos. Para ello se recomienda comenzar por cautivar como aliado estratégico al nivel directivo de la organización. En segunda instancia es necesario definir un conjunto de criterios bajo los cuáles se elegirán los participantes y el enfoque de los ejercicios de cocreación a realizar. Para ello se ofrece el siguiente esquema:

Figura 1. Criterios para seleccionar técnicas de co-creación

Ante un escenario particular, se recomienda hacer la siguiente verificación buscando elegir la estrategia de co-creación adecuada: Objetivos: hace referencia al problema que se desea solucionar mediante la co-creación, o el reto definido por los interesados. En general una técnica puede ser aplicada para: construir redes y conexiones entre participantes, generar conocimiento, facilitar el aprendizaje, crear comunidades de práctica, generar estrategias, extraer conocimiento de los participantes, proponer mejores prácticas, sensibilizar. Número de participantes: Cantidad de personas necesarias para aplicar la técnica de co-creación. Una posible categoría es: grupos pequeños (Menos de 10 personas), grupos medianos (10-30 personas), grupos grandes (Más de 30 personas). Nivel de conocimiento de los participantes: hace referencia al nivel de conocimiento de quienes aportarán en el ejercicio: básico, medio, alto, avanzado. Ubicación: Lugar en el que se encuentran las personas que van a participar de la actividad y de qué forma se reúnen los participantes. Puede ser presencial, virtual o mixta. Rol de los participantes: será posible tener interesados como: Gerente, empleados, moderadores, usuarios finales, expertos del tema de discusión. También existen diversos roles asociados a la ejecución de la técnica: relator (Tomar apunte de las ideas expresadas por los participantes), facilitador o coordinador de la técnica (quien orientará los diferentes momentos, darle un orden a la actividad, fijando una serie de normas que lleven a terminar la sesión exitosamente, también debe crear confianza en el grupo), personal de logística. Duración: Tiempo que se emplea para aplicar la técnica de co-creación. Las técnicas pueden ser aplicadas en diversos rangos de tiempo. Pueden ejecutarse en menos de 1 hora, entre 1 4 horas, entre 1 3 días, de 1- 6 semanas, o con duración de meses (Aplica para técnicas que requieran ejecución continua). Costo: la inversión en la ejecución de la técnica puede ser bajo, medio, alto. Escalabilidad: Aunque esta característica puede estar inmersa en el número de participantes, es importante tener una variable separada para identificar que tan escalable es una técnica y que tanto se adapta al cambio de participantes. En cuanto a esto pueden existir los siguientes niveles: Baja, media, alta. Mecanismo de motivación: se trata de una relación ganagana, y es necesario que el participante lo sienta así. La motivación puede ser intrínseca o extrínseca. Empleando los criterios de la figura 1 y sin perder de vista que la estrategia planteada debe tener continuidad en el tiempo, se proponen talleres periódicos mensuales durante un año, con la retroalimentación respectiva para determinar qué cambios deben hacerse en busca de mejorar. Cada taller durará máximo 2 horas y se hará en principio bajo modalidad presencial, es decir, todos los participantes serán reunidos en

CISTI 2015 | 196

un espacio que la compañía destine para ello. Deberá ser un lugar donde se puedan reubicar sillas, mesas, poner carteles, proyectar diapositivas, jugar, y sentirse muy cómodo.

Todas las sesiones que se programen tendrán la siguiente estructura:

La pregunta orientadora de las diferentes interacciones será:

a cargo del gerente de la compañía, esto para mostrar que se cuenta con los directivos como aliados. Momento 2: Sensibilización previa a la co-creación mediante una lúdica que disponga positivamente a los participantes. Algunos ejemplos son: a) consistente en una competencia donde quienes piensan en el beneficio grupal terminan siendo los ganadores, b) brainwriting para construir colaborativamente versiones diferentes de cuentos infantiles conocidos buscando estimular el pensamiento lateral al encontrar diferentes variantes de una situación tradicional; c) tangram consistente en algo similar a un rompecabezas. Momento 3: Co-creación para extraer estrategias acopladas a . Allí se puede usar un SAFARI [17]. (apropiado para público heterogéneo con un nivel medio de conocimiento del banco). Esta técnica consiste en intercambiar ideas a partir de preguntas orientadoras y luego generar iteraciones por diferentes estaciones de trabajo, una por cada interrogante (en esta ocasión serán dos). Cada equipo estará conformado por 7 u 8 personas. Cada 20 minutos se deben hacer rotaciones para tratar el otro interrogante. En busca de contar con la percepción individual de los participantes, vale la pena que previo a la discusión en la estación de trabajo, cada uno escriba la respuesta a la pregunta formulada durante aproximadamente 3 minutos. Esta información quedará registrada en un protocolo especialmente construido para ello. A partir de la reflexión individual se logran mejores discusiones y mayor conciencia del tema abordado. Momento 4: socialización de resultados por cada estación de trabajo y posterior construcción de las conclusiones colectivas.

¿Cuáles servicios desearías que te ofrezca la institución financiera para conseguir la humanización de la banca? Se recomienda mezclar un segmento de empleados con otro de clientes, ya que las ideas resultantes recogerán el sentir de dos tipos de interesados. Al conformar este grupo heterogéneo se harán divisiones convenientes para cada una de las sesiones mensuales, intentando no repetir participantes en cada ejercicio de co-creación. Fundamental hacer retroalimentación de los avances que se tengan en la estrategia, de esta manera se garantiza credibilidad y confiabilidad. Como muestra de clientes se sugiere tomar una parte de la población del segmento preferencial, sobre todo aquellos que hayan manifestado inconformidad con el servicio. Especial atención requiere la forma de configurar la sesión evitando que estos clientes generen ruido y el ejercicio sea contraproducente. Quizás valga la pena hacer algún trabajo previo con ellos para explicarles que el banco está en busca de canales de interacción donde logre identificar las necesidades no cubiertas y ofrecer opciones. También se sugiere invitar empleados de diferentes unidades que lleven 2 años o más trabajando con la empresa, con vocación de servicio, reconocida por sus superiores. No conviene incluir directivos en la muestra seleccionada, para evitar coartar la libertad de los participantes debido a las jerarquías. Cada sesión deberá ejecutarse con un máximo de 15 asistentes en calidad de participantes, esto sin contar a quienes cumplan roles asociados a la organización del ejercicio de co-creación. No hay que perder de vista el conjunto de roles asociados a la ejecución de la técnica que idealmente deben ser asumidos por empleados previamente capacitados en temas de innovación y co-creación. Importante garantizar que cada rol sea asumido de acuerdo a las capacidades y competencias de cada individuo, de forma que, por ejemplo, el líder exhiba habilidades para motivar, orientar de forma constructiva la sesión y lograr sinergia en el grupo. Otro elemento clave es una buena planeación del ejercicio, lo que incluye compra de materiales, generación de invitaciones a la sesión (en diferentes formatos y remitidas por correo e impresa, también llamadas telefónicas), reserva y adecuación de espacios, construcción de formatos y protocolos para registro de información. Para tener mayor claridad en el orden del taller se debe construir un guion que detalle las fases, tiempo estimado para cada una, detalle de la actividad, materiales y el responsable de la ejecución.

Otros aspectos importantes en la configuración de la estrategia se enuncian a continuación: Mecanismos de motivación participativos: Para los clientes se propone la asignación de beneficios relacionados a los productos que ofrece la entidad financiera. Por ejemplo: exoneración de cobros en los productos adquiridos, reducción de tasas de interés, acceso gratuito a los servicios que surjan a partir de estas sesiones. Es probable que algunos clientes y los empleados prefieran motivación asociada al reconocimiento público de las personas que participan en los talleres. En tanto que los empleados pueden ser incentivados dándoles facilidades para estudiar o alguna bonificación económica. La decisión será tomada en función de un conjunto de características de cada cliente y empleado vinculado, y acorde a lo que ellos expresen. Herramientas de registro y recolección de información: se debe contar con formatos para recolectar la mayor cantidad de datos (relatorías, comentarios, transcripciones, fotos), que posteriormente permita la generación de informes y análisis

CISTI 2015 | 197

e identificación de puntos críticos a mejorar. Vale la pena incluso grabar las sesiones y luego hacer transcripción de videos, revisando incluso detalles de posturas, gestos, partiendo de que el lenguaje no hablado es útil para detectar inconformidades y expectativas de los participantes.

REFERENCIAS [1] http://www.imf.org/external/spanish/pubs/ft/survey/so/2013/car050613a s.htm. [Accessed: 05-May-2014]. [2] [3]

VII. CONCLUSIONES Y TRABAJOS FUTUROS banca más humana como la propone Bancolombia es sin duda alguna un factor diferenciador de la institución, perteneciente al sector financiero, siempre percibido como carente de alma y cuyo único objetivo es generar ganancias. Sin embargo es necesario trascenderla para escuchar las inquietudes de los clientes y empleados, además de darle continuidad en el tiempo. La co-creación se avizora como una solución factible para potenciar la banca más humana a otro nivel. Otra conclusión importante es que la configuración de sesiones de co-creación no debe hacerse empíricamente. En lugar de ello es fundamental contar con protocolos para la selección de técnicas, medios, roles, y demás puntos críticos si se quiere lograr una interacción realmente productiva y hacia futuro, mayor credibilidad y confianza por parte de quienes participan, al ver que sus ideas en realidad son tenidas en cuenta y se vuelven una realidad. Tener como aliado estratégico al nivel directivo de la organización es otro punto que requiere especial cuidado. Esto garantiza la asignación de recursos, el despliegue comunicacional, y sobre todo, la sensibilización y conciencia por parte de los gerentes para facilitar que este tipo de estrategias de innovación fluyan de mejor manera. Como trabajo futuro se propone a mediano plazo la implementación de una herramienta tecnológica de soporte a estrategias de co-creación, lo cual ampliaría el espectro hacia sesiones virtuales donde se logre mayor cobertura, cuidando mucho detalles como la forma de motivar, la configuración de equipos, los mecanismos de sensibilización, la selección de participantes, los retos a lanzar, entre otros. RECONOCIMIENTOS Reconocimiento especial a la Universidad de Medellín y Bancolombia, particularmente a las Doctoras Gloria Yaneth García Franco, María Isabel Vásquez Gómez, Gloria Patricia Muñoz Carmona, Sandra Patricia Sepúlveda Zapata y al Doctor Jesus Navor Chávez por su participación en el trabajo de campo.

[4] [5] [6]

[7] [8] [9]

[10] [11]

[12] [13] [14]

https://labs.bankinter.com/about/default.aspx. [Accessed: 05-May-2014]. "Intranet Bancolombia" [Online]. Available: https://intranet.bancolombia.corp. [Accessed: 03-Nov-2014]. impulsa la co-creación para innovar en productos [Online]. Available: http://www.larepublica.co/finanzas/banco-de-bogotá-impulsa-la-cocreación-para-innovar-en-productos-financieros_84356. [Accessed: 06May-2014]. [Online]. Available: http://www.portafolio.co/negocios/entrevista-presidentebancolombia. [Accessed: 20-Feb-2015]. http://www.tantum.com/mexico/articulo_completo.htm?DX=319. [Accessed: 05-May-2014]. [Online]. Available: http://www.finanzaspersonales.com.co/ultimas-noticias/articulo/grupobancolombia-apuesta-banca-mas-humana/43686. [Accessed: 20-Feb2015]. C. K. Prahalad and V. Ramaswamy, The Future of Competition: CoCreating Unique Value With Customers. Harvard Business Press, 2013, p. 272. Available: http://static.hosteltur.com/web/uploads/2011/05/Tesis_Web_20_Vasilica _Margalina.pdf. [Accessed: 20-Feb-2015] Chesbrough, H., Open innovation: a paradigm for understanding industrial innovation. Open innovation: researching a new paradigm, ed. H. Chesbrough, W. Vanhaverbeke, and J. West. 2006, Oxford, UK: Oxford University Press. Gassmann, O. and E. Enkel. Towards a Theory of Open Innovation: Three Core Process Archetypes. in R&D Management Conference (RADMA). 2004. Lisboa, Portugal. -creación en banca: Bankinter Labs : Colaboración y co-creación de u [Online]. Available: http://blogs.icemd.com/blog-colaboracion-y-co-creacion-de-usuarios-yconsumidores-crowdsourcing/co-creacion-en-banca-bankinter-labs/. [Accessed: 06-May-2014]. Olavarrieta, s. Villena, M (2014) Innovation and business research in Latin America: An overview. ScienceDirect. Recuperado el 17 de Noviembre de 2014 de: ScienceDirect [Online]. Available: http://www.elcolombiano.com/historico/banca_mas_humana_la_meta_d e_carlos_raul-CAEC_143652. [Accessed: 20-Feb-2015]. -creation platform - 20 examples by

http://www.slideshare.net/boardofinnovation/how-to-kickstart-yourcocreation-platform-20-examples. [Accessed: 20-Feb-2015]. [15] Fairbanks, C. B. (2007). Using six sigma and lean methodologies to improve OR throughput. AORN Journal, 86(1), 73-82. doi:10.1016/j.aorn.2007.06.011fdfdf [16] Mintzberg, H., B. Ahlstrand, and J. Lampel, Strategy Safari: A Guided Tour Through The Wilds of Strategic Mangament. 2005.

CISTI 2015 | 198

Arduino como interface em automação industrial: capacidades e limitações Anderson Luiz Nogueira Vieira

Felipe Félix Novaes

Faculdade Estácio de Sá, FESJF Juiz de Fora, Brasil [email protected]

Faculdade Estácio de Sá, FESJF Juiz de Fora, Brasil [email protected]

Abstract Nowadays, factories and manufactures seek the excellence through the use of industrial automation systems. However, automation solutions are mostly expensive and proprietary. Then initiated studies to identify the possibilities of using the Arduino as automation interface with Supervisory Systems, study which has brought excellent results and useful informations for future projects. Keywords- Arduino, automation systems, PLC, residencial automation, sensor, actuors, network, ethernet, open-source.

I.

INTRODUÇÃO

Diante da crescente demanda por bens de consumo e serviços e consequentemente a busca incessante na otimização dos processos , a automação tem assumido uma posição de importância nesse objetivo, possibilitando em diversas áreas um ganho de produção e gerenciamento através de Sistemas Supervisorios, que auxiliam no processo em tempo real, controlando, supervisionando e adquirindo informações do processo produtivo com agilidade e eficiência. II.

SISTEMAS DE SUPERVISÃO E CONTROLE NA AUTOMAÇÃO

Dentre as vantagens proporcionadas pelos Sistemas Supervisórios podemos destacar a qualidade e integridade, garantida pelo monitoramento de variáveis que permitem a previsibilidade e/ou diagnóstico de falhas; a redução de custos, com a centralização do gerenciamento do processo produtivo, diminuindo mão-de-obra e tempo dedicado a esta atividade e a possibilidade de intervenções ou execução de procedimentos técnicos remotamente. Além disto, os Sistema Supervisórios efetuam a coleta de dados e armazenam os mesmos em banco de dados, que podem ser utilizados para gerar informações úteis de toda cadeia produtiva. Para que seja possível o uso de Sistemas Supervisórios , existem componentes físicos necessários para aquisição e controle , como:

Sensores: São dispositivos que convertem grandezas físicas (temperatura, força, velocidade) em sinais passíveis de leitura pela estação remota. Autuadores: São dispositivos que intervém sobre o sistema, de forma a executar determinada ação de controle manual, elétrico ou mecânico. Rede de Comunicação: Cuida do meio em que as informações são trocadas entre estações remotas e de monitoração e podem ser cabos ethernet, fibras opticas, rádios, etc. Estações de monitoramento: São unidades responsáveis por coletar informações geradas pelas estações remotas e agir em conformidade com os eventos detectados. Estações remotas: Controlador Lógico Programável (ou PLC, Programable Logic Controller) que utiliza uma memória programável para armazenar internamente instruções e para implementar funções específicas, tais como lógica, seqüenciamento, temporização, contagem e aritmética, controlando, por meio de módulos de entradas e saídas, vários tipos de máquinas ou processos [1]. Porém, quando se fala em Sistemas Supervisórios em automação, isto está diretamente relacionado com soluções de alto custo e proprietárias, de difícil acesso à sua programação e customização quanto não previstas pelo fabricante. III.

ARDUINO

Todo esse cenário leva a refletir como seria possível o desenvolvimento de novas tecnologias que atendam essa demanda pela otimização em processos de automação, utilizando da plataforma de hardware open-source Arduino como interface de comunicação com os Sistema Supervisórios. Criado em 2005 por Massimo Banzi, o Arduino se constitui de um simples controlador lógico, algumas interfaces de entrada/saída, além de uma interface serial ou usb para sua programação e interação em tempo real. Por ser open-source (código aberto), não possui um fabricante único, o que

CISTI 2015 | 199

possibilita uma independência das soluções proprietárias de automação encontradas atualmente [2]. De baixo custo, o Arduino é de fácil utilização, permitindo que qualquer interessado desenvolva seus próprios projetos técnicos [3], de tal forma que hoje o Arduino tem sido utilizado na implementação de projetos não somente por profissionais de tecnologia e engenharia, como também por profissionais da moda, biologia, entre outros.

IV.

ARDUINO EM AUTOMAÇÃO INDUSTRIAL

Em laboratórios de testes identificou-se que o Arduino enfrenta algumas limitações de processamento, de forma que para alguns projetos torna-se inviável seu uso, tanto pelo desempenho quanto a falta de confiabilidade em um ambiente de produção industrial. Por exemplo, sua baixa capacidade não permitiu em testes a hospedagem de uma página web robusta para monitoração de processos e dispositivos, sendo necessário o uso de uma hospedagem externa ao microcontrolador. Porém, dependendo do escopo do projeto e de como o mesmo é desenvolvido, alguns recursos podem ser destacados como sua fácil integração a sistemas mais complexos usandocom o mesmo e usando conexão socket e troca de mensagens com sistemas supervisórios, permitindo o uso de Arduino para execução de comandos de controle sobre sensores e atuadores e o envio de status sobre o funcionamento dos mesmos através também do uso de protocolos abertos que permitem a comunicação entre diferentes dispositivos, conforme comunicação exemplificada na Fig1.

poderiam ser utilizadas fazendo sua integração através de redes industriais e sistemas supervisórios de automação industrial, distribuindo seu processamento e utilizando o arduino para execução de funções específicas como parte do projeto. Outras possibilidades como uso de linguagens dinâmicas no desenvolvimento de IHM (Interface Homem Máquina) e a aquisição de informações e eventos para alimentar uma base de dados exemplifica parte do leque de recursos oferecidos e aspira ao quanto ainda pode ser explorado de uma ferramenta tão versátil para pequenas aplicações de automação, supervisão e aquisição de informações de um processo, vide exemplo exposto na Fig2.

Figure 2. Exemplo de tela de interface web em prototipo criado para testes do uso do Arduino com Sistemas Supervisorios em automação

Não obstante, toda essa versatilidade tem despertado o interesse de grandes empresas como a Intel, que tem disseminado o uso de sua placa open-hardware compatível com arduino, o Galileo, que se destaca pela alta performance de 400 Mhz de processamento contra os atuais 16 Mhz das placas padronizadas Arduino [4]. Novos testes serão efetuados com esta placa a fim de identificar se algumas limitações identificadas poderiam ser superadas em comparação com placas anteriores e permitindo a identificação de uma gama maior de atuação de open-hardware em aplicações industriais oferecendo confiabilidade e eficiência com custos mais baixos. V.

Figure 1. Exemplo de comunicação e troca de mensagens de sistemas supervisorio e arduino como interface final

Desta forma, identificou-se uma solução para o problema de performance, usando diversos microcontroladores de forma distribuída, soluções mais complexas

CONCLUSÃO

Como resultado deste trabalho inicial, verificou-se como o arduino tem permitido a criatividade no desenvolvimento de soluções de automação que antes não eram possíveis devido à dificuldade de acesso a equipamentos de alto custo e de difícil programação. É notório que devido à sua simplicidade e pequeno poder de processamento, existe uma limitação quanto ao desenvolvimento de soluções de grande porte, que precisam de equipamentos de maior robustez. Porém, para certas implementações ou até mesmo utiliza-lo como interface com sistemas supervisórios, o

CISTI 2015 | 200

Arduino pode gerar economia e ampliar as possibilidades de atuação como interface de automação industrial. REFERÊNCIAS B IBLIOGRÁFICAS [1] CAPELLI, Alexandre. CLP Controladores programáveis na prática. São Paulo: Antenna. 2007.

lógicos

[2] McROBERTS, M. Arduino Básico. São Paulo. Editora Novatec, 2011. [3] MARGOLIS, M. Arduino Cookbook. Sebastopol, CA, USA: O' RilleyMedia, 2011 [4] DUNBAR, Onur. Home Automation with Intel Galileo. Packt Publishing. 2015.

CISTI 2015 | 201

Contribuições da Programação de Software no Processo de Aprendizgem Lógico-Matemático de Estudantes do 4º e 5º anos do Ensino Fundamental: Uso do Scratch Software Programming Assistance in the Process of Students Learning Logical-Mathematical of 4 and 5 Years of Elementary Education: Scratch the Use Profª Drª Ana Marli Bulegon1 , Vanice Hentges2 Centro Universitário Franciscano - Antonio Meneghetti Faculdade (AMF) Santa Maria-RS e Restinga Seca-RS Brasil [email protected] [email protected] Resumo Este trabalho apresenta os resultados de um estudo de caso cujo objetivo foi desenvolver o conhecimento de Matemática de uma forma lúdica, aliando a programação de software às atividades de sala de aula. Os dados foram coletados a partir do uso do Scratch para o desenvolvimento de animações, jogos, histórias, etc. com crianças de 9 a 11 anos de uma escola municipal em São João do Polêsine/RS. Os resultados obtidos demonstram que a programação de software potencializou o estudo de sala de aula e a aprendizagem de conceitos de Matemática; despertou a autonomia dos mesmos para estudos extraclasse com e sobre a tecnologia de informação e comunicação; entre outros. Palavras Chave - Scratch; ensino fundamental; ambiente de autoria. Abstract This paper presents the results of a case study whose objective was to develop the mathematics knowledge in a playful way, combining software development to classroom activities. Data were collected from the use of Scratch for the development of animations, games, stories, etc. with children 9-11 years of a municipal school in São João do Polêsine / RS. The results show that software development has enhanced classroom study and learning of math concepts; aroused the autonomy of them to extracurricular studies and the information and communication technology; among others. Keywords - Scratch; primary education; authoring environment.

I. INTRODUÇÃO A educação é reflexo dos momentos vividos historicamente. Hoje, em pleno século XXI, a informação está acessível a todos e em todos os lugares, de modo que é impossível pensar na escola como há alguns anos atrás. Estatísticas brasileiras mostram que a demanda por profissionais de computação cresce exponencialmente a cada ano e as universidades não estão formando na mesma proporção. Para resolver este problema, faz-se necessário aumentar o número de interessados pelos cursos da área de computação nas universidades, mas isso passa primeiro pela introdução de conceitos de ciência da computação na educação básica. ([2], 2011, s/p).

No contexto escolar percebe-se que algumas crianças, nascidas imersas no mundo tecnológico, têm apresentado dificuldades, nas atividades como desenhar, copiar um texto de um quadro, fazer cálculos no papel. Para essas crianças, essas atividades parecem ser uma tarefa um tanto quando

complicada, visto que o papel e o lápis não interagem com eles como os aparelhos eletrônicos. Ter escolas equipadas com aparelhos eletrônicos não basta para melhorar essa realidade. É necessário que os professores tenham conhecimento das ferramentas que podem auxiliar no processo de ensino e aprendizagem. Assim, trazer conceitos computacionais para a educação básica é fundamental para manter e desenvolver o raciocínio computacional nas crianças e despertar o interesse deles pela área da tecnologia. II. INFORMÁTICA NA EDUCAÇÃO Em um panorama, em que computadores, celulares, internet, entre outros recursos tecnológicos, tornam-se cada vez mais acessíveis e presentes no cotidiano dos alunos, as escolas necessitam avaliar a inclusão dessas ferramentas no trabalho pedagógico de sala de aula. Dessa forma: [...] a escola precisa se deslocar das concepções de ensino/ aprendizagem, nas quais o livro e ela própria se configuram como únicas possibilidades de aquisição de conhecimento e de cultura [...] em direção a outras concepções, em que conhecimento, cultura e comunicação se aproximam, na medida em que são pensados a partir de novos parâmetros teórico/ conceituais. [1](p. 782).

Uma das possibilidades para essa mudança é a adoção do uso de softwares educacionais. Esses tem em sua maioria o intuito de ajudar o aluno na construção do conhecimento, buscar soluções e fazer descobertas. Nesse contexto, segundo [3] (1995) Ao criarem seus projetos em Scratch, os jovens aprendem muitas habilidades do século XXI que serão críticas para um futuro de sucesso: pensar criativamente, comunicar-se claramente, analisar sistematicamente, usar tecnologias fluentemente, colaborar efetivamente, projetar iterativamente e aprender continuamente.

Assim, o Scratch surge com o intuito de valorizar o aprendizado pela experimentação, o aprender fazendo, o que pressupõe uma pedagogia que desenvolva a autonomia dos estudantes por meio do protagonismo e autoria dos mesmos no processo de aprendizagem.

¹ Doutora em Informática na Educação, Profª do Centro Universitário Franciscano e Antonio Meneghetti Faculdade (AMF). ² Pedagoga e concluinte do curso de graduação em sistemas de Informação da Antonio Meneghetti Faculdade (AMF) Recanto Maestro Restinga Seca/RS. CISTI 2015 | 202

III. SCRATCH O Scratch é uma linguagem de programação visual, foi desenvolvida pela equipe do Lifelong Kindergarten do MIT Media Lab, (Massachusetts Institute of Technology), em 2007. A ideia do Scratch é que qualquer pessoa e em qualquer idade possa programar. Ele foi desenvolvido com o intuito de auxiliar na construção de histórias interativas, músicas, jogos, animações e o que mais a criatividade permitir. Programar usando o Scratch é mais fácil do que com linguagens tradicionais de programação, pois a base dele é juntar blocos (Figura 01), como se fosse um brinquedo Lego: basta arrastar os blocos com as ações pretendidas.

Os alunos estiveram atentos a todas as informações dadas pela professora pesquisadora e interagiram com o Scratch de forma curiosa. Buscavam descobrir a infinidade de atores (personagens) que estão disponíveis no Scratch. A figura 03 apresenta um dos resultados da interação dos alunos com o Scratch.

Figura 03: Inserção de dois objetos no labirinto, além do ator.

Por essa imagem pode-se perceber que os alunos desenvolvem de forma lúdica diversas aprendizagens como: linguagem de programação, o conceito de coordenadas cartesianas e de probabilidade, entre outras.

Figura 01: Exemplo de como operar com o Scratch

Na base do Scratch estão conceitos matemáticos como coordenadas cartesianas, variáveis, números e também conceitos computacionais como condições, interações, que são construídas ao longo do conhecimento da programação. Condições no Scratch é um conceito básico, pois a parte de código no Scratch é construída com o encaixe de blocos de comando, e assim quando existe uma condição no bloco de comando o código seguinte só irá funcionar se ela for verdadeira. IV. METODOLOGIA O trabalho foi desenvolvido com crianças de 09 a 11 anos em uma escola municipal da cidade de São João do Polêsine/RS no turno inverso ao de suas aulas. Realizaram-se seis encontros. Inicialmente apresentou-se o Scratch o tutorial criado para as atividades a serem desenvolvidas. Nos encontros subsequentes os alunos interagiram com o Scratch produziram objetos sugeridos pelas pesquisadoras (Figura 03). V. RESULTADOS E DISCUSSÕES A Figura 02 mostra o resultado da execução dos comandos do Scratch no Ecrã (palco de construção das animações no software). Pode-se perceber nesta figura que as coordenadas cartesianas e as variáveis ficam visíveis aos usuários. Ao mover o objeto este se locomove para a direita, esquerda, para cima e para baixo, ou seja, na horizontal e na vertical, o aluno desenvolve conceitos estudados em Matemática como o de coordenadas cartesianas, além de outros conhecimentos como lateralidade, espacialidade, etc..

Figura 02: Resultado da execução de comandos do Scratch

VI. CONSIDERAÇÕES FINAIS O scratch foi escolhido para o projeto por apresentar uma linguagem visual, permitindo que crianças compreendam e utilizem sem grandes dificuldades, bem como por ter uma interface interativa o que facilita utilizar e criar nesta plataforma. Ao utilizar o Scratch os alunos tornaram-se construtores de pequenas aplicações e trabalharam conceitos novos para eles tanto de Matemática como de Informática em espaços escolares e extraclasse. O resultado desse trabalho nos mostra que ensinar programação para crianças de 4º e 5º anos do EF (entre 9 e 11 anos) é, com certeza um desafio, mas imensamente gratificante, pois percebe-se que esta contribui para o desenvolvimento do espírito investigativo e potencializa a aprendizagem no contexto escolar. Vemos a programação ainda distante do cotidiano das escolas, porém cabe a nós educadores e profissionais da TI, mostrar que é possível repensar a prática e tornar a escola mais atrativa e produtiva para os alunos, fazendo uso de tecnologia como um apoio, agregando valor ao ensino e pesquisa, mostrando que é necessário evoluir e construir o conhecimento. REFERÊNCIAS BIBLIOGRÁFICA [1] MARASCHIN, C.; NEVADO, R. A. O Paradigma epistemológico e o ambiente de aprendizagem Logo. In: BRASIL. Ministério da Educação. Secretaria de Educação Média e Tecnológica. Informática na Escola: Pesquisas e Experiências. Léa da Cruz Fagundes (org.). Brasília: MEC/SEMTEC, 1994. [2] NUNNES, D. J., http://www.adufrgs.org.br/artigos/ciencia-dacomputacao-na-educacao-basica/ acessado em 06/10/2014. [3] PAPERT, S.; RESNICK, M. Technological Fluency and the Representation of Knowledge. Proposal to the National Science Foundation. MIT MediaLab (1995). [4] TEIXEIRA, J. F. Uma discussão sobre a classificação de software educacional, disponível em http://www.ccuec.unicamp.br/revista/infotec/artigos/jacqueline.html acessado em 01 de junho de 2014. [5] TOLÊDO, J. H. D. de; LÒPEZ, O. C. Informática aplicada à educação matemática. Palhoça: Unisul Virtual, 2006.

CISTI 2015 | 203

Benefícios da reciclagem do e-waste no Brasil estudo de caso no Recife

Benefits of recycling of e-waste in Brazil a case study in Recife João Samarone Alves de Lima

Julia Sílvia Guivant

Setor de Cursos em Tecnologia da Informação Instituto Federal de Pernambuco, IFPE Belo Jardim, Brasil [email protected]

Departamento de Sociologia e Ciência Política Universidade Federal de Santa Catarina, UFSC Florianópolis, Brasil [email protected]

O setor das Tecnologias da Informação e Resumo Comunicação sempre foi considerado uma indústria limpa, mas nos últimos anos começaram a surgir problemas socioambientais relacionados aos resíduos eletrônicos (e-waste) revelando uma situação bastante diferente do que se pensava a respeito da sustentabilidade daquela indústria. No artigo são abordadas as oportunidades de negócios e desenvolvimento social a partir da reciclagem deste tipo de resíduos no Brasil com destaque de projetos desenvolvidos na cidade do Recife. Normas reguladoras a nível nacional como a Política Nacional de Resíduos Sólidos estão entre as inovações discutidas. Palavras Chave - TI verde, resíduos eletroeletrônicos, modernização eEcológica, sustentabilidade. Abstract The sector of Information and Communication Technologies has always been considered a clean industry, but in recent years began to emerge social and environmental problems related to electronic waste revealing a very different situation than previously thought about the sustainability of the industry. In paper addressed the business opportunities and social development from the recycling of this type of waste in Brazil with outstanding projects in the city of Recife. Regulatory standards at national level as the National Solid Waste Policy are among the innovations discussed. Keywords green IT, modernization, sustainability.

I.

electronics

waste,

ecological

INTRODUÇÃO

Preservar os recursos naturais do planeta converteu-se em uma discussão central nas últimas décadas, também se tornou imperativo porque a não preservação coloca em risco o sistema natural que sustenta a vida. O capital natural vem declinando assustadoramente e a queima dos combustíveis fósseis tem alterado um dos ciclos críticos fundamentais da natureza: a troca permanente do dióxido de carbono por oxigênio entre animais e as plantas. Ou seja, um serviço de indispensável à vida que é fornecido de forma gratuita pela natureza estaria sendo comprometido. Nas últimas três décadas, consumiu-se nada menos que 1/3 dos recursos naturais do planeta e, nos últimos 50 anos, 1/3 da cobertura florestal e 1/4 da camada superior do solo [1] [2] [3].

O sociólogo Ricardo Abramovay comentando sobre o uso sustentável de produtos e serviços da biodiversidade e analisando com dados recentes de relatórios da ONU, mostra o avanço da extração de recursos da natureza nas últimas décadas como que esses fossem infinitos, e alerta para necessidade de frear o consumo desses recursos ao mesmo tempo em que invoca à indispensabilidade do estímulo da reciclagem [4]. Os números indicam que 60 bilhões de toneladas de recursos naturais (biomassa, combustíveis fósseis, minérios industriais e materiais de construção) foram necessárias para suprimir a demanda de consumo das populações sobre tudo das mais favorecidas no início dos anos 2000 [5]. E o número já havia saltado para 70 bilhões de toneladas em 2008, o que significa um consumo médio de dez toneladas per capita [6]. Entretanto, existem disparidades de consumo entre as populações. Enquanto um habitante do mundo desenvolvido na América do Norte (americanos e canadenses) consome 25 toneladas ao longo da vida, um cidadão indiano só tem acesso a quatro toneladas [5]. Em se mantendo as tendências atuais de crescimento da população, expansão econômica e inovação tecnológica serão alcançados volumes de extrações na ordem dos 140 bilhões de toneladas de recursos, algo absolutamente incompatível com os limites ecossistêmicos [6]. Na Sociedade de Risco, definição dada por Ulrich Beck à última modernidade, a geração de resíduos é potencializada a níveis que têm provocado desequilíbrios ao ambiente natural devido à extração de recursos acima da capacidade de resiliência do sistema natural [7]. Alguns dos resíduos, principalmente após a revolução industrial, apresentam uma composição material muito complexa e, sobretudo, os artificiais, aqueles que não são encontrados naturalmente ou ocorrem em baixas concentrações, trazem sérios riscos à vida na biosfera. Os sociólogos Ulrich Beck e Antony Giddens adotam uma abordagem tão original quanto polêmica ao colocar os riscos ambientais e tecnológicos como centrais para explicação da sociedade contemporânea. Os autores reconhecem que sempre existiram riscos, só que consideram os atuais objetivamente diferentes porque não são meros efeitos colaterais do progresso, mas centrais e constitutivos destas sociedades, ameaçando toda forma de vida no planeta e, por isso,

CISTI 2015 | 204

estruturalmente diferentes no que diz respeito a suas fontes e abrangências. Essa transformação ocorre de maneira autônoma, portanto, independe de intenções ou políticas, mas é processada pelas forças da própria sociedade reflexiva [8]. Os riscos dessa sociedade rompe a hierarquia distribucional de classes, apesar dos menos privilegiados continuarem sendo mais afetados, num efeito bumerangue em que as classes favorecidas são também atingidas porque torna-se impossível a fuga em uma sociedade global de risco [7]. Nesse sentido, os resíduos sólidos provenientes dos eletroeletrônicos (e-waste) passaram a despontar no cenário global como elementos potencialmente tóxicos superando em muito as antigas engrenagens que faziam parte do aparato tecnológico da sociedade da informação anterior. No Brasil a Política Nacional de Resíduos Sólidos (PNRS) instituiu o princípio de responsabilidade compartilhada pelo ciclo de vida dos produtos e adota vários outros objetivos, a responsabilidade compartilhada é assim definida: [...] conjunto de atribuições individualizadas e encadeadas dos fabricantes, importadores, distribuidores e comerciantes, dos consumidores e dos titulares dos serviços públicos de limpeza urbana e de manejo dos resíduos sólidos, para minimizar o volume de resíduos sólidos e rejeitos gerados, bem como para reduzir os impactos causados à saúde humana e à qualidade ambiental decorrentes do ciclo de vida dos produtos [9]. O princípio da responsabilidade compartilhada admite que as responsabilidades iniciadas no processo produtivo e concluídas na etapa pós-consumo de um determinado produto são de todos os atores envolvidos: os fabricantes; importadores; distribuidores; comerciantes; poder público e, até os consumidores e catadores de materiais recicláveis. A implantação e desenvolvimento da PNRS pode contribuir para resolver os problemas desta poluição, pelo menos a nível local. Acreditamos que a PNRS foi sábia em esperar os próprios fabricantes fazerem suas propostas como ponto de partida para implantação do plano de gestão dos resíduos eletroeletrônicos. O governo está recebendo as sugestões que trarão as perspectivas daqueles que produzem o problema, levando a indústria a refletir sobre as oportunidades de melhorias, não só no processo de reciclagem, mas também na concepção de novos produtos. A reciclagem com solução para o drama do e-waste é a inteligência que precisa ser posta em prática a fim de reutilizar os recursos extraídos dos ecossistemas para evitar a escassez completa deles. A. Objetivo O objetivo desta investigação foi entender como são percebidas as problemáticas que envolvem a gestão dos resíduos eletrônicos específicos da TIC, o e-waste, na cidade do Recife em Pernambuco. Analisando estratégias adotadas no processamento deste tipo de resíduos busca-se responder os objetivos específicos:

De quem seria a responsabilidade pela gestão do ewaste. Existem regulações a nível estadual e nacional, quais suas semelhanças ou diferenças na abordagem do assunto. B. Técnicas de Coleta de Dados Para compreender como é operada a gestão do e-waste foi utilizado em combinação com o referencial teórico uma pesquisa empírica que envolveu fontes primárias diretas: fotografias, filmes, imprensa falada, documentos legais e outros testemunhos textuais e gráficos; entrevistas semiestruturadas com informantes-chave foram conduzidas durante a investigação. II.

GESTÃO DO E-WASTE APLICADO A BENEFÍCIOS SOCIAIS

O Centro de Recondicionamento de Computadores (CRC) instalado no Recife é parte do Projeto Computadores para Inclusão Projeto CI do Governo Federal, criado em 2004 é atualmente coordenado pela Secretaria de Inclusão Digital do Ministério das Comunicações. Trata-se de uma rede nacional de reuso de equipamentos de informática, formação profissional de jovens carentes e inclusão digital, supridos por computadores e outros periféricos de TIC descartados por órgãos do governo e empresas estatais (federal, estadual e municipal), empresas privadas, além de pessoas físicas. No CRC os computadores são recondicionados e doados a telecentros, escolas públicas e bibliotecas de todo o País, eles são distribuídos pelo CRC conforme a região de atuação onde estão instalados. Por exemplo, o CRC Recife faz a entrega de computadores recondicionados em todos os estados da região nordeste utilizando veículos próprios. O funcionamento do Projeto CI tem os seguintes objetivos: i) criar oportunidades de formação educacional e profissional e de inserção no mercado de trabalho para jovens de baixa renda, em situação de vulnerabilidade social; ii) apoiar iniciativas de promoção da inclusão digital por meio da oferta de equipamentos de informática recondicionados, e do reaproveitamento criativo de suas partes e peças; iii) estimular a disseminação de políticas de descarte planejado e ecologicamente sustentável dos equipamentos de informática dos setores público e privado; iv) definir e implantar modelo de funcionamento em rede dos CRCs para o aprimoramento dos conteúdos, recursos didático-pedagógicos e metodologias relacionados à manutenção e configuração de computadores; v) desenvolver e aprimorar atividades educacionais e de sensibilização em temáticas relacionadas à gestão e descarte de e-waste. Seu funcionamento é ilustrado na Fig. 1.

Como as empresas geradoras desses resíduos estariam se posicionando.

CISTI 2015 | 205

formação, eles têm acesso a uma quantidade gigante de resíduos de materiais que são descartados ou não têm mais utilização para algumas pessoas. E a partir daí eles começam a desenvolver a sua criatividade, sua inteligência e isso fazendo uma harmonia entre a dimensão do resíduo com a dimensão do desenvolvimento em plataforma livre. Sempre coloco como viés de emancipar e promover jovens em situação de vulnerabilidade. 1

Figure 1. Modelo de funcionamento do projeto CI

Os CRCs funcionam, portanto, como oficinas e assistências técnicas especializadas em manutenção e recondicionamento dos equipamentos de TIC, são espaços físicos preparados para a formação técnica de jovens em situação de vulnerabilidade social. Os jovens são formados em uma série de atividades inerentes à qualificação profissional exigida pelo mercado de trabalho daquele setor como: instalar softwares, testar, consertar, limpar, configurar equipamentos, entre outras atividades afins. Dessa maneira a iniciativa estaria favorecendo a inclusão social e a profissionalização dos jovens, bem como favorecendo a reflexão para ações que ajudam na redução dos impactos ambientais causados com o descarte inadequado do ewaste. Instalados e mantidos em parceria com o setor público e privado em diferentes regiões do Brasil (seis centros instalados no Brasil), com o apoio do Governo Federal, os CRCs além dos objetivos já mencionados, cuidam da captação de doações, armazenagem, recondicionamento e distribuição dos equipamentos de informática para entidades selecionadas como beneficiárias; e também, separa e prepara os resíduos não aproveitados em projetos de inclusão digital e os enviam para destinação final ambientalmente adequada; outra parte não funcional dos equipamentos é utilizada na forma de objetos artísticos, artesanato ou afins, contribuindo, assim, na formação cultural dos jovens integrantes dos projetos. Inaugurado em outubro de 2009, o CRC Recife é resultado de parceria entre a União Brasileira de Educação e Ensino (UBEE) por meio do Centro Marista Circuito Jovem do Recife. Antes da unidade no Recife, a rede Marista havia instalado o primeiro CRC em Porto Alegre em 2006, a mantenedora cada vez mais tem entendido e participado da agenda da inclusão sócio digital para o Brasil com o governo federal, informou o professor Domingos Sávio de França, diretor do CRC Recife, em entrevista à TV SERPRO em agosto de 2013 pela ocasião do VI Congresso Internacional de Software Livre e Governo Eletrônico (CONSEGI). Naquela entrevista o professor França apresentou as linhas gerais de atuação do CRC Recife: hoje, talvez, o que consigamos menos fazer é recondicionar computadores, hoje temos um conjunto de outras iniciativas que terminam configurando o espaço como um grande centro de tecnologias livres. E trabalhamos muito forte desde os primeiros dias de atuação com a dimensão do software livre, com a dimensão da metarreciclagem, na dimensão da robótica livre. Os meninos estão ali em processo de

Desde sua fundação o CRC Recife tem assistido as demandas de inclusão sociodigital de mais de cinco mil jovens carentes, o e-waste utilizados nos trabalhos desenvolvidos na instituição são doados por órgãos públicos e estatais das três esferas (federal, estadual e municipal), empresas privadas e por pessoas físicas que levam o material até o centro. Dotados de uma Logística Ativa, utilizam veículos próprios para buscar volumes maiores de e-waste diretamente nas fontes doadoras, dentro da área de atuação do CRC, neste caso todos os estados da região nordeste do País. Em 2011 o volume movimentado por mês chegava a 80 (oitenta) toneladas, desse total, segundo Lúcia Xavier 2, 30% recondicionado pelo CRC e tornado útil para montagem de Telecentros aplicados à Inclusão Digital. Os 70% restantes são passíveis de serem reciclados (desmontados, desmembrados, descaracterizados, compactados, acondicionados) e terem uma destinação final ambientalmente adequada, mas isso não é realizado no CRC e sim por uma empresa privada que recebe os resíduos, os quais após sua transformação tornam-se recursos primários valorizados. Esse volume de matéria prima o e-waste fonte de doações sendo transformada em recursos de alto valor agregado em mãos da iniciativa privada, tem chamado a atenção da direção do CRC Recife que já planejava para ano 2011 montar uma unidade de produção voltada à metarreciclagem não foi possível confirmar o funcionamento desta unidade de produção porque a visita ao CRC Recife não foi viabilizada pela instituição. Neste novo espaço definido de Metarreciclagem, os jovens aprenderão a transformar e-waste em novos componentes que retornarão à cadeia produtiva, como afirma o diretor do projeto Sávio França: a unidade de metarreciclagem outros jovens em processo de formação vão entender conceitos, vão entender a filosofia, vão entender técnicas de como realizar a separação dos fios, dos metais, do cobre, dos metais leves e pesados e retorná-los para as Processo semelhante havia sido adotado antes pelo CRC Oxigênio em São Paulo que posteriormente passou a ser uma empresa quando descobriu que a atividade de reciclagem 1

2

cf. . Acesso em: 02 dez. 2013.

A

pela editora Elsevier em 2014, e pesquisadora titular na Coordenação de Estudos Ambientais da Fundação Joaquim Nabuco (CGEA/FUNDAJ).

CISTI 2015 | 206

poderia ser lucrativa. Essa é uma direção que choca com os ideais fundadores da proposta original do CRC, comenta Lucia Xavier, destacando: [Os CRCs] recebem recursos do Governo Federal para dar encaminhamento nesse sentido, [...] construir unidades com finalidade de educação, a parte de educação do CRC Recife e Porto Alegre são os que mais se destacam neste âmbito [...] estão formados pela questão da capacitação. Recebi agora uma estatística do Ministério da Comunicação que é responsável [pelos CRCs], ela mostra o número de maquinas destinadas para Inclusão Digital e número de pessoas capacitadas. Recife tem um número expressivo de formandos, esse é o objetivo. Então se for investir na metarreciclagem seja com fins de capacitação e não com fins comerciais porque isso choca com a proposta do CRC. É nobre a meta deles de capacitação, de formação, de inclusão socioambiental, sócio digital, eles tiram pessoas da situação de risco. Estive conversando com alunos de lá e são surpreendentes as histórias de vida e os resgates que eles alcançam, com certeza, é um fim muito nobre. Minha colocação é no sentido de não se

prestam à sociedade é inestimável. Infelizmente no Brasil quem faz esse trabalho é vítima das piores formas de exclusão social e não deveria ser assim, geralmente associa-se essa tarefa à degradação. III.

A GESTÃO DO E-WASTE NO RECIFE

A Região Metropolitana do Recife (RMR) é composta por dezessete municípios onde residem quatro milhões de pessoas maior aglomerado urbano do Norte-Nordeste e concentra 65% do PIB de Pernambuco. Foi mapeado cerca de 50 grupos entre associações e cooperativas de catadores com potencial para capacitação em sustentabilidade e para produção em atividades de Metarreciclagem. Algumas dessas iniciativas sociais já atuam de alguma forma na cadeia reversa do e-waste [10]. Na RMR as atividades de gestão do e-waste estão divididas entre iniciativas empresariais e sociais. Caracterizam-se através de campanhas sazonais, principalmente. Em novembro de 2013 foi implantado pela prefeitura do Recife a primeira Ecoestação para recebimento apenas de materiais recicláveis, inclusive, eletroeletrônicos, conforme é apresentado na Fig 2. Estes serão separados e comercializados pelos recicladores.

A pesquisadora entende que a utilização dos resíduos excedentes no CRC Recife, os 70% passíveis de destinação final ambientalmente adequada, poderiam, por exemplo, a partir da reciclagem, ter uma aplicação capaz de potencializar ainda mais as já nobres ações desenvolvidas naqueles centros. De que outra forma poderia ser? Fazendo a indagação ela sugere: CRC atuando em parceria com outras instituições, outras unidades que não necessariamente empresas tem outras instituições que podem receber e recebem [e-waste]. Temos trabalhado muito [com base na] PNRS que fala, não só ela, a Política Nacional de Saneamento Básico, o Decreto 5.940 de 2006, são vários [instrumentos legais]. São dois decretos, quatro Leis federais que falam da inclusão de catadores por meio de ações cooperativas. Dá para fazer parceria dessa forma porque você desmembrando os equipamentos, separando os materiais agrega-se valor, e associações cooperativas precisam receber esse material para agregar valor cooperativas de catadores legalmente constituídas. As observações da pesquisadora permitem que seja vislumbrado um novo panorama onde a multiplicação das virtudes poderia se tornar realidades factíveis. Os aspectos sociais e econômicos poderiam encontrar um equilíbrio nestes lugares, resgatando a dignidade das pessoas e contribuindo para a formação de uma economia catalisadora, inclusiva e sustentável. As atividades desempenhadas por catadores nos centros urbanos é um trabalho digno, mas existe a necessidade de serem regularizados. A organização da categoria em associações é uma alternativa que pode colaborar na transformação da imagem negativa que é feita desses atores sociais. A sociedade precisa deles, o serviço ambiental que

Figure 2. Ecoestações de recicláveis

A estratégia está sendo chamada de Projeto EcoRecife e prevê o investimentos de R$ 15 milhões em dois anos com a construçã serão limpas, contarão com um agente ambiental e um auxiliar de serviço geral para receber os recicláveis. Tudo que for afirmou o presidente da Empresa Metropolitana de Limpeza Urbana (Emlurb), Antônio Barbosa 3. Entre as empresas instaladas na RMR se destacam a TGestiona e a Tes AMM, essa última é parceira do CRC Recife na reciclagem dos resíduos comentado antes [10], e as empresas Pernambuco Verde Reverso (www.pernambucoverde.com.br) e Eco Reverso

3

cf. . Acesso em: 20 dez. 2013.

CISTI 2015 | 207

(www.ecoreverso.com.br), parceiras do Porto Digital 4 , da Secretaria do Meio Ambiente do Estado de Pernambuco e da Cidade do Recife nas campanhas sazonais de coleta do e-waste. Nos sítios eletrônicos das empresas Eco Reverso e Pernambuco Verde Reverso quase nenhuma informação é divulgada sobre os processos de gestão e os destinos dos resíduos. Procuradas para agendar uma visita com fins acadêmicos, apenas a empresa Eco Reverso respondeu o pedido. Entretanto, a resposta não significou uma autorização de visita, mas apenas uma afirmativa de disponibilidade para contribuição com a pesquisa que acabou não sendo concretizada. Alegando indisponibilidade de tempo, os sócios da empresa informaram que não tinham naquela atividade sua principal ocupação profissional, nela atuavam somente em horários extraordinários e sob demanda. Admitindo poder contribuir respondendo a questionário de pesquisa, que prontamente foi preparado e enviado para o e-mail da empresa, nunca enviaram suas respostas mesmo depois de vários contatos por telefone e de várias promessas e adiamentos na entrega do mesmo.

duas primeiras campanhas foram responsáveis por coletas consideradas tímidas, mas a coleta de 2013 superou as vinte toneladas nos quatorze dias da campanha. Nestas ocasiões foram montados quatro pontos de coleta espalhados pela cidade. A última campanha registrada durante a realização desta pesquisa foi promovida pelo Centro de Excelência em Tecnologia de Software do Recife (SOFTEXRECIFE) em um único dia 23 de outubro de 2013. A empresa recicladora Eco Reverso foi escolhida para recolher o e-waste e providenciar o destino correto à sucata eletrônica. Segundo diretor Executivo do SOFTEXRECIFE 5 , Eduardo Paiva, a Eco Reverso comprometeu-se em fazer a disposição final ambientalmente adequada, a qual seria composta por três fases: triagem, separação e envio de cada componente para corporações especializadas e certificadas em reciclagem e manufatura reversa, comenta o Executivo: durante a triagem, é avaliada a possibilidade de se reaproveitar os componentes. Se os aparelhos estiverem em boas condições, eles serão encaminhados a projetos sociais e escolas que precisem. Já aqueles que não puderem mais ser usados, vão passar para etapa de separação, onde são pesados, desmontados e isolados por tipo (plásticos, metais, placas eletrônicas, cabos, etc). A partir daí, os componentes seguem rumos diferentes para companhias especializadas, que ficam tanto no Estado como fora dele.

Reunir informações sobre a gestão do e-waste por empresas privadas demonstrou ser um atividade bastante árdua, sentimento também partilhado com a pesquisadora Lúcia Xavier que aponta para os seguintes motivos: primeiro grande motivo é [mercadológico o ewaste] estar valorizando muito. Então, quanto menos eles falarem, mais chance de chegarem primeiro e ganharem. É o primeiro estado a legislar depois da PNRS. Minha visão de pesquisadora é que essas empresas estão muito bem organizadas. Fomentaram uma lei como essa por interesse, o resíduo só vai chegar obrigado por Lei. A lei tá ai precisa ser regulamentada primeiro, mas tá ai. Eles são muito organizados e é muito competitivo, então pra que vão prestar informação para um pesquisador? A Lei apontada pela pesquisadora legisla sobre a obrigatoriedade da disposição de resíduos recicláveis em locais especificados pelo poder público e, também em empresas que comercializam equipamentos eletroeletrônicos. As campanhas de coletas de e-waste no Recife têm ocorrido desde 2011, promovidas pelo Porto Digital por ocasião dos Seminários Internacional de Resíduos Eletroeletrônicos (SIREE), organizados anualmente por aquela instituição. Essas campanhas de recebimento e doação de equipamentos tecnológicos contam com o apoio de várias instituições. As 4

O Porto Digital é um pólo de desenvolvimento de softwares instalado no bairro do Recife antigo, é formado essencialmente por pequenas e médias empresas criadas na própria cidade do Recife, mas ao mesmo tempo abriga grandes instituições multinacionais e brasileiras como Accenture, IBM, Microsoft, Ogilvy, Stefanini, Thought Works, Vilesoft, e projetos de P&D em parceria com Alcatel Lucent, Bematech, Motorola, Samsung, LG e HP. As principais áreas de competência das empresas do Porto Digital são o desenvolvimento de sistemas de gestão empresarial, mobilidade urbana, games, animação e aplicações para dispositivos móveis, redes neurais e inteligência artificial. Cf. Acesso em: 10 jan. 2014.

No site da SOFTEXRECIFE não constam informações a respeito do volume coletado na campanha, nem qualquer outra referência a entidades sociais beneficiadas com equipamentos recondicionados. IV.

CONCLUSÃO

Neste artigo, discorre-se sobre a importância da formação de consciência quanto à importância da destinação correta do e-waste para jovens em formação no ensino básico. Mais que isso, pretendemos chamar a atenção para a necessidade da reflexão quanto ao consumo voraz das novas tecnologias e suas conse descartabilidade. O e-waste como aspecto pedagógico pode ser um instrumento capaz de formar a consciência cidadã sobre questões muita mais complexa, possibilitando-os a se posicionar de maneira crítica e participante. A atividade recicladora é apresentada como uma alternativa para inclusão social e sociodigital ao mesmo tempo em que põe em ação a recuperação de materiais que alivia a pressão sobre os recursos dos ecossistemas. Enquanto a indústria de TIC e o governo brasileiro discutem como fazer a logística reversa dos 5

É uma Associação civil sem fins lucrativos, criada em 8 de novembro de 1994. A entidade tem sua origem vinculada ao Programa Softex2000, representando a consolidação institucional do Núcleo Softex do Recife, criada logo no início do Programa, em maio de 1993 (foi o sexto núcleo a ser criado no País, dos cerca de 28 existentes). Atualmente possui mais de 72 empresas associadas. Cf. < http://www.recife.softex.br/>. Acesso em: 10 dez. 2013.

CISTI 2015 | 208

equipamentos eletrônicos, oportunidades de negócios são desenhadas pela iniciativa privada para dar vazão ao entulho eletrônico de forma produtiva e econômica. Redes de colaboração entre empresas privadas, organizações públicas e organizações não governamentais desenvolvem estratégias para fazer o processamento dos resíduos. A responsabilidade pelo o e-waste é encarada como uma ação desse coletivo. REFERÊNCIAS B IBLIOGRÁFICAS [1] [2] [3] [4]

Paul Hawken, Amory Lovins, L. Hunter Lovins. Capitalismo Natural: criando a próxima revolução industrial. São Paulo, Sp: Cultrix, 1999. 358 p. Elisabeth Laville. A empresa verde. São Paulo, SP: Õte, 2009. 404 p. Tradução: Denise Macedo. Ézio Manzini, Carlo Vezzoli. O Desenvolvimento de Produtos Sustentáveis. São Paulo: Editora da Universidade de São Paulo, 2011. 366 p. 3. reimpr. Ricardo Abramovay. Desigualdades e limites deveriam estar no centro da Rio+20. 2012. 13 p. Disponível em: . Acesso em: 21 abr. 2012.

[5]

United Nations Environment Programme (Ed.). Decoupling natural resource use and environmental impacts from economic growth. The Unep Knowledge Repository, 2011b. 174 p. Disponível em: . Acesso em: 15 mar. 2014. [6] Ricardo Abramovay. A riqueza do lixo. 2013. Entrevista concedida ao 12/2013. Planeta Sustentável. Especial Lixo National Geographic Disponível em: . Acesso em: 09 abr. 2014. [7] Ulrich Beck. Sociedade de risco: rumo a uma outra modernidade. 2. ed. São Paulo: 34 Ltda, 2010. 384 p. [8] Julia S. Guivant. A Trajetória das análises de risco: da periferia ao centro da teoria social. Revista Brasileira de Informação Bibliográfica em Ciências Sociais, Rio de Janeiro, v. 46, p.3-37, 1998. [9] Brasil. Lei nº 12.305, de 2 de janeiro de 2010. Institui A Política Nacional de Resíduos Sólidos: altera a Lei no 9.605, de 12 de fevereiro de 1998; e dá outras providências. Brasília, DF, 2010. Disponível em: . Acesso em: 28 out. 2013. [10] Lúcia Helena Xavier. Resíduos Eletroeletrônicos na Região Metropolitana do Recife (RMR): Recife: Slide, 2013. 72 slides, color. Apoio: Fundação Joaquim Nabuco (FUNDAJ) e Porto Digital.

CISTI 2015 | 209

ICT Platforms: The relationship between citizens and public administration in Portugal Fátima David

Rute Abreu

Research Unit for Inland Development Polytechnic Institute of Guarda Guarda, Portugal e-mail: [email protected]

Research Unit for Inland Development Polytechnic Institute of Guarda Guarda, Portugal e-mail: [email protected]

Abstract The purpose of this paper is to demonstrate the importance of ICT platforms to answer needs, according to the demands of the public administration, because the internet, mobile computing, social networks and many other advances in human communications have become essential to promote society development [1]. In this sense, Portugal for Horizon 2012-2016 defined a strategic plan with 25 rationalization measures according to the following principles of operation: (i) improving governance mechanisms, (ii) cost reduction, (iii) using ICT to leverage administrative change and modernization, (iv) implementing common ICT solutions and (v) stimulating economic growth [2]. In this context, on the one hand, the theoretical framework of this paper is based on literature about information technologies, in general, and information technologies used in public administration, in particular. On the other hand, the empirical framework reflects the best practices in the Portuguese public administration sector. Thus, in order to improve the quality of the public service which presents lower costs for citizens and firms and simultaneously decreases public expenditures, particularly concerning with Information and Communication Technology (ICT). Keywords: ICT, Citizens, Public Administration, e-Government, eService, Portugal.

I.

INTRODUCTION

The public sector assumes leadership in the innovative processes related to a substantial part of the new technologies, particularly Information and Communication Technology ICT, as it deals directly with innovation, for example, in education, healthcare, administrative services, administration of justice, public transportation and communication services [3]. There is a new public service model, with specific features such as: existence of customer-oriented public services; transversal services that require cooperation between public administration entities; and services provided in various service channels, with formalities associated with the exercise of an economic activity [4]. The challenge for governments is to redefine its role and building the capacity of public and private institutions to play beneficial roles in helping citizens to cope with the uncertainties, and benefit from the globalization opportunities [5]. Indeed, the society development depends, in large measure, of leadership from the public sector in reaping many of the gains from technological development and diffusion.

Citizens often complain that governments provide services that are inadequate, inappropriate, inferior or too costly of their hard-earned tax payments [6]. But, citizens should understand that the changes bringing services improvements in the government performance imply innovation. This innovation alters the status quo in more than an incremental way. Innovations introduce new ideas or ways of doing things that strongly depart from convention or that require new or unfamiliar forms of behaviour and interaction [6]. In this context, the ICT are critical for the effective operation of governments and the delivery of the services it provides to citizens and businesses offering as key benefits: access to online transactional services, which makes life simpler and more convenient for citizens and firms; and channels to collaborate and share information with citizens and firms, which in turn enable the innovation of new online tools and services [7]. Thus, ICT is a fundamental tool that every modern State needs, delivering better public services for less cost and increasing satisfaction among citizens with the governments functions and the services that public administrations provide. Therefore, on the one hand, the theoretical framework of this paper is based on literature about information technologies, in general, and information technologies used in public administration, in particular. On the other hand, the empirical framework reflects the best practices in the Portuguese public administration sector. The structure of the paper is organized as follows. After the introduction in section 1, section 2 gives an overview of the ICT Platforms use. Section 3 presents the different Portuguese ICT platforms in public administration and discusses its implementation and diffusion. Finally, the section 4 summarizes main findings and presents the final conclusion. II.

E-SERVICES IN PUBLIC ADMINISTRATION

Citizens rely on technologies to communicate, interact, inform decisions, and to provide and receive services/products; while, ICT offers to governments new ways to design, develop and deliver services, automate existing services, and more effectively consult and engage with a broader range of stakeholders [8]. Effectively, the need to improve governance and public administration and to enhance the State capability to carry out new functions and roles is now widely recognized [6], exist a public interest in the internet and e-technology solutions

CISTI 2015 | 210

to improve governance as well as public access to information and services [9; 10]. Thus, ICT applications in the public administration has promoted better governance as well as bringing high quality e-services that improved transparency and simplified access to governmental services and public information. Furthermore, raises the level of citizens' trust in government, reinforcing the public administration role in the sustainable development process. Within this context, ICT means the new ways in which we can communicate, inquire, make decisions and solve problems, i.e. the processes, tools and techniques for: gathering and identifying information; classifying and organizing; summarizing and synthesizing; analysing and evaluating; and speculating and predicting [11]. For this, it is important that users of ICT know the following ICT components [12]: Access - knowing about and how to collect and/or retrieve information; Manage - applying an existing organizational or classification scheme; Integrate summarizing, comparing, interpreting and representing information;

contrasting,

relationship and power; new solutions for economic development; and alternative approaches for connecting citizens to the political process [11]. As the application of ICT in public administration becomes widespread, a progression through the various stages of eService can be observed [15; 16]: Basic Internal Functional Efficiency - Improving internal functional efficiency through the ICT application; Improved Internal Communications Improving internal communications through the electronic mail application and introducing workflow management systems for increased process efficiency; Improved Access - Providing access to information concerning services and the democratic process; Electronic Interconnection of Services - Putting in place applications that would not only enable citizen participation through feedback, but would also allow for transactions between citizens to government, firms to government and government-to-government (see Fig. 1); Electronic Democracy - Introducing digital democracy and technological solutions that would enable participatory action and democratic processes; Total Electronic Service Integration Introducing integrated electronic or digital governance services through one central e-Service hub.

Evaluate - making judgments about the quality, relevance, usefulness, and efficiency of information; and Create - generating information by adapting, applying, designing, inventing, or authoring information. Within the last decade, many public sector strategists have acknowledged the strategic value of e-technologies (Table 1) and recognize the need for improved business processes information and services, and more productive relationships with citizens and private sector [11]. In general, the introduction of ICT contributes in private and public sector organizations to an improvement in three critical domains, which are: efficiency; quality, and transparency [13]. TABLE 1. TYPE STYLES [11] Time Distance Creativity Time Distance Creativity Time Distance Creativity

Efficiency Accelerating business processes and activities Reducing geographical and distance inhibitors/barriers Enhancing existing business processes and activities Effectiveness Improving the flow of information and business intelligence throughout the supply and the value chain components Enabling integrated control of the supply and the value chain processes Enabling new (and/or modified) processes Growth Obtaining early market entry/presence Introducing new products to new markets Developing new products and services

However, governments not only must maximize the benefits offered (through the application of digital government and eService) but also must avoid the dangers (economic, social and cultural) associated with rapid technological changes [11]. In the past years, there has been ample debate over the effectiveness of e-Service in the public administration [14]; eService initiatives need to take into consideration alternative forms of citizenship; different patterns and trends of

Figure 1. The Spheres of Public Sector ICT [17].

At the same time, during the last two decades, the e-Service and/or e-Government stream of research within the information systems literature has grown significantly [18; 19]; some authors have investigated the potential impacts of ICT and management issues [20]; others have focused on ICT transfer, culture and country-specific factors in e-government development, and diffusion among stakeholders in developing countries [21]. And, consequently, governments around the world have been engaged in the process of implementing a wide range of ICT applications and platforms [22]. For example, in Portugal, the next section shows the different platforms of ICT that allow the relationship between citizens, firms and public administration. III.

ICT PLATFORMS IN PUBLIC ADMINISTRATION

In Portugal, as in many countries, the ICT has played an important role in public administration reforms, changing the way as governments execute their functions and reduce operational costs. In this sense, with a mission to operationalize modernization initiatives and boost the participation and involvement of all (citizens, firms, public institutions and State), was established in 2006, the Agency for Administrative

CISTI 2015 | 211

Modernisation (in Portuguese, Agência para a Modernização Administrativa, AMA) which aims: Rationalize, geographically and financially, the distribution model of public services, without loss of proximity to the citizen and savings in installation and operation costs; Introduce the next generation of Citizen's face as the point of contact par excellence between public administration and citizens, by implementing the concentration needed services and scaling the provision of public services available there due to the existing demand in each location; Try new service models supported by ICT, allowing the choice and the combination of treatments; Turning services currently organized according to supply, integrated and organized solutions according to demand and events whose disclosure must be made simpler, faster and convenient. Thus, in order to a quality public service which presents lower costs for citizens and firms and simultaneously decreases public expenditures, particularly concerning with ICT, Portugal for Horizon 2012-2016 defined a strategic plan with 25 rationalization measures according to the following principles of operation: (i) improving governance mechanisms, (ii) cost reduction, (iii) using ICT to leverage administrative change and modernization, (iv) implementing common ICT solutions and (v) stimulating economic growth [1]. About the network services offered in the tax area exist the Portuguese Tax and Customs Authority (in Portuguese, Autoridade Tributária e Aduaneira, AT) that is supervised by the Ministry of Finance [23]. The AT is responsible for the management of taxes on income, on wealth, and general excise taxes in conformity with the tax policies determined by the Portuguese government [24]. AT mission is to administer taxes, duties and other assigned taxes, as well as to control the external border of the European Union and the national customs territory for tax and economic purposes and of the protection of society, in accordance with the policies established by the government and the European Union law [23]. According to this, the AT develops its activities in the following areas: tax assessment and collection; tax inspection and auditing; tax litigation; and tax studies [24]. One example of the use of ICT in the tax administration is the recent transposition, in August 2012, for the national law of the Council Directive 2010/45/UE of 13 July 2010 [25], related with a new package of rules that obliged the electronic documents supporting the movement of goods [26]. The reform of the Portuguese invoicing system came into force in January 1, 2013; and the electronic communication of the transport T efactura) project and the reform of the invoicing system have placed three major challenges before the AT [26]: The level of consume precedent in what concerns involvement of citizens. The for all transactions into the general rule in the Portuguese society; The capacity of the Portuguese firms to make the electronic communication of the relevant tax data of the invoices they have issued; The capacity of the tax administration technical resources to receive and process all the

invoices sent by the economic operators, as well as the data introduced by consumers. Effectively, the Portuguese Tax and Customs Administration is currently a reference in the use of ICT in their internal processes and in the external interface with taxpayers and the remaining public administration services, in particular by the implementation of high degree of innovation systems, including the following [27]: Dematerialization of the universe of declarations submitted by taxpayers for tax and customs purposes; Implementation of the electronic notification system and the automation of the preparation and emission of all taxpayers correspondence; Dematerialization of the universe of internal processes by a system which scans all incoming paper documents at AT services, also the preparation, decisions and proceedings are carried out in a dematerialized form; Full automation of a wide range of internal processes common to tax and customs services, such as applications for recognition of tax benefits, administrative offences, tax enforcement, electronic auction for sale of seized property, risk matrix, between others; Implementation of the e-invoice system and the electronic transport document, which represent the most advanced model of promoting voluntary tax compliance and combating the underground economy; E-counter system implementation through which taxpayers can access all customer services, without requiring unnecessary physical travel to the services, ensuring a unique response from the AT services; Implementation of an interaction system with taxpayers, with the mission to promote taxpayers' voluntary tax compliance, avoiding costs associated with default. Through this fully electronic system, AT warns taxpayers, by e-mail and SMS, of all tax obligations they have to comply; Interoperability with public entities and other organizations to provide full customer services to citizens and businesses, as well as information sharing to simplify and offer a better public service. Also related to the above platform is the Citizen's Portal (in Portuguese, Portal do Cidadão), that is supervised by the Agency for Administrative Modernization together with all government ministries, that are the promoters of the initiative [28]. The Citizen's Portal aims to facilitate the relationship between citizens and the Portuguese State, with a privileged access channel to the services provided by the government. From the Citizen Portal can run some of the online services provided by the public authorities as well as consult information or various contents, being the only electronic gateway of public services. Currently, this Portal features over 1,247 services made available by a total of 336 public bodies and authorities (central and local government) [29]. In the area of social security there are the Portuguese Social Security system (in Portuguese, Segurança Social) that is supervised by the Ministry of Solidarity, Employment and Social Security [30] and the Health Subsystem for Civil Servants (in Portuguese, Assistência na Doença aos Servidores do Estado, ADSE). On the one hand, the Portuguese Social Security system is for all citizens and aims to ensure basic rights of citizens and equal opportunities, as well as promote well-being and social cohesion for all Portuguese citizens or foreigners engaged in

CISTI 2015 | 212

professional activity or residing in the territory [30]. Thus, are priority objectives of the Social Security system: ensure the realization of the right to social security; promote the sustainable improvement of conditions and social protection levels and the strengthening of the respective equity; and promote the system's effectiveness and the efficiency of its management [30]. On the other hand, for the State employees exists the ADSE, created in 1963 by Decree-Law nº 45002/63 of 27 April [31] that is the largest health subsystem and is controlled by the Ministry of Finance [32]. The ADSE has as its central mission to ensure Public Administration workers and their families have effective access to social protection in the context of health care and support to beneficiaries, in particular, in a severe and continuing economic hardship. According to the Decree-Law nº 118/83 of 25 February [33], as amended by Decree-Law nº 234/2005 of 30 December [34], the ADSE finance the expenditure incurred by the beneficiaries with treatment, rehabilitation and health monitoring, as well as participates in checking the disease (home visits and medical Board). Therefore, the ADSE homepage has the information structured according to three types of users, specifically: [32]. The first area intended beneficiaries of ADSE: workers with legal public employment relationship of the central, regional and local government; teaching staff in private and cooperative education, since for this purpose an agreement is concluded with the ADSE; retirees who are not covered by any other subsystem integrated health and Public Administration; and dependents of the members - spouse, descendants and ascendants or equivalent. The second area includes the employers belonging mainly to the following groups: entities of the central administration; entities of local government and regional legally are responsible for co-financing the provision agreed their employees and their respective families; and General Retirement Fund and the National Pensions Centre. The third area is focused to health care providers who have entered into agreement with the ADSE. Also, in order to boost ICT in the public administration, the Company Portal (in Portuguese, Portal da Empresa) is a privileged relationship channel of businesses and entrepreneurs in the public sector throughout the business life cycle [35]. The Company Portal is supervised by the Agency for Administrative Modernization and the Ministry of Justice that are the promoters of the initiative, with the collaboration of the Ministry of Solidarity, Employment and Social Security and the Ministry of Finance and sponsored by the Secretary of State for Administrative Modernisation [35]. The Company Portal also has a partnership with the Institute of Support to Small and Medium Enterprises and Investment (in Portuguese, Instituto de Apoio às Pequenas e Médias Empresas e à Investimento, IAPMEI). This Portal is divided into four main areas that reflect the traditional life cycle of an enterprise: creation, management, expansion and extinction. In each of them, entrepreneurs and other interested parties can find a wide range of information and services in more than 140 government entities, working in partnership with the Agency for Administrative Modernisation

in order to ensure the availability and update them. The Company Portal aims to minimize the steps for implementing the entrepreneur's obligations, providing the performance of a large number of services over the Internet, making faster procedures and formalities and reducing the administrative burden and associated costs. In the economic area exist the Institute of Support to Small and Medium Enterprises and Innovation, created in Portugal in 1975 by Decree-Law nº 51/75 of 7 February [36], that is supervised by the Ministry of Economy [37] and supports all 'life phases' of Small and Medium Enterprises (SME) businesses. As main responsibilities, the IAPMEI has [36]: Carry out measures to stimulate business development, in particular those directed to innovation and technological development, organizational innovation and improving the skills of human resources; Expand strategies of collective efficiency for SMEs, promoting coordinated actions to improve the business environment, including administrative simplification and technical and technological assistance; Develop initiatives that promote based business investment, guiding to the enhancement of international integration of national producers of goods and services; Run initiatives that encourage business development strategies, including through the diagnosis of opportunities for innovation, qualification of production and internationalization; Participate in the definition and monitoring policy initiatives falling within its remit, including those that take the nature of incentive schemes, aimed at harmonization and consistency; Intervene as a privileged interlocutor for smaller companies, linking the entities of the business environment and administrative, without prejudice to their respective competences. The Ministry of Economy also integrates the Employment and Vocational Training Institute (in Portuguese, Instituto do Emprego e Formação Profissional, IEFP) being the oversight and supervision of the IEFP articulated with the Ministry of Solidarity, Employment and Social Security [38]. The IEFP, established in 1979 by the Decree-Law nº 519-A2/79 of 29 December [39], is a public body, under the auspices of the Ministry of Labour and Social Solidarity, which is responsible for implementing active employment policies, particularly those pertaining to vocational training, defined and approved by the government. Specifically, the IEFP develops its activity in 4 areas: employment; vocational training; vocational certification; and solutions for companies. In relation to Employment [38], the IEFP has a vast array of support services and incentives aimed at jobseekers, allowing access to: job opportunities in his/her region, in the whole country or in Europe; CV advertising and job matching facilities; information on the labour market; information and tools in active job search techniques; vocational guidance services; incentives and support (technical and financial) to business start-ups; professional experience; combined training/employment solutions; specific programmes aimed at promoting handicraft and cultural, natural and architectural inheritance preservation and valuing activities; and occupational activities. In relation to Vocational Training [38], the IEFP tailors its training offer to different profiles and needs, depending on

CISTI 2015 | 213

factors such as age and current school qualifications. To obtain a vocational qualification and school progression, the modalities offered can be: Apprenticeship Training System (for 1st time job seekers, individuals aged between 15 and 25 and school qualification between the 4th and 12th level of schooling); Education and Training for Young People (for 1st time job seekers or individuals looking for a new job, individuals aged between 15 and 25 and school qualification between the 4th (or lower) and 12th level of schooling); and Education and Training for Adults (for 1st time job seekers or individuals looking for a new job and the unemployed, individuals over the age of 17and school qualification lower than the 4th, 6th or 9th level of schooling). Other modalities exist to obtain a vocational qualification without school progression, as: Technological Specialisation Courses; Training for Management and Senior Management; and Requalification, Updating and Further Training. In relation to Vocational Certification [38], IEFP contributes towards the continuous improvement of workers, recognizing and certifying already acquired skills and identifying those that still need to be developed, so as to give them a competitive edge in the labour market, bringing them closer to the real needs of the productive tissue. In this sense, the skill certification is expressed by the issuance of a Vocational Aptitude Certificate, which is a document verifying that an individual has the necessary skills to effectively carry out a given profession, defined within the scope of the National Skill Certification System. In relation to Solutions for Firms [38], the IEFP has a vast array of support services and incentives aimed at employers, either firms or other entities, of private (profit and no-for-profit) or public nature, in the areas of: staff recruitment and selection; hiring and maintenance of work positions; equal opportunities and reconciling work and family life; present and future staff training; consultancy, training and management support to small firms; and information on the labour market performance. Another online service is the Portuguese Statistical Institute or Statistics Portugal (in Portuguese, Instituto Nacional de Estatística, INE) that is supervised by the Minister in the Cabinet of the Prime Minister [40]. The INE created by the Law nº 1911/35 of 23 May [41], is a public institute whose mission is to produce and disseminate, in an effective, efficient and independent manner, high-quality official statistical information relevant for society as a whole. In the exercise of official statistical activities, INE enjoys technical independence and may, in its capacity as national statistical authority, require information to be reported, which shall be mandatory and free of charge, safeguarding respect for statistical confidentiality, according the National Statistical System Law. In this sense, the main tasks of the INE are [40]: To produce official statistical information, with the purpose of supporting decisions of a public, private, individual or collective nature, as well as scientific research; To prepare the Portuguese National Accounts, in coordination with the other competent authorities; To disseminate in an accessible manner the statistical information produced; To coordinate and perform the technicalscientific and methodological supervision of official statistics under its responsibility, the delegated entities and the Regional Statistical Services of the Autonomous Regions; To cooperate

with national entities and with entities of other European Union Member States and international organizations in the statistical area. According to the foregoing, in early 2006, as the result of a programme set up by the Portuguese government with the purpose of simplifying and modernising the administration in order to make life easier for enterprises and citizens, a number of national public entities, including INE, took part in the creation of a system that made it possible to acquire administrative data while simultaneously complying with the following legal obligations of enterprises [42]: Presentation of annual accounting and tax statements to the Ministry of Finance (through the Portuguese Tax and Customs Authority); Recording of the presentation of accounts within the framework of commercial registry legislation; Supplying statistical business data to INE, to meet information needs aiming at fulfilling its obligations arising from participation in the European Statistical System; Accounting data for reporting for statistical purposes to Portuguese Central Bank, within the scope of its participation in the European System of Central Banks. Thus, the Simplified Business Information system (in Portuguese, Informação Empresarial Simplificada - IES) was thus set up via Decree-Law nº 8/2007 of 17 January [43], and its implementation was only possible with the involvement of all interested parties. Indeed, the Portuguese Central Bank is a partner of Portuguese Tax and Customs Authority (AT) and INE in the support of public administration. Last but not least, the Portuguese Central Bank (in Portuguese, Banco de Portugal) is the central bank of the Portuguese Republic, being a public-law legal person with administrative and financial autonomy and own property [44]. The Portuguese Central Bank is part of the European System of Central Banks (ESCB) since its inception in 1998, which consists of the European Central Bank (ECB) and the national central banks of the European Union (EU). In that capacity, Banco de Portugal pursues the objectives and is involved in the performance of the tasks entrusted to the ESCB, specifically to maintain price stability, which is the key objective of monetary policy. Since its establishment by a royal charter of November 19th, 1846, Banco de Portugal acts as a commercial bank and issuing bank. And without prejudice to the requirements derived from its participation in the ESCB, shall be incumbent upon the Bank to [44]: Manage the foreign assets of the country or any other assets entrusted to it; Act as intermediary in the international monetary relations of the State; Ensure the stability of the national financial system, ensuring with this finality, in particular, the functions of lender of last resort and national macro-prudential authority; Participate in the European system for the prevention and mitigation of risks to financial stability and other bodies pursuing the same finality; Advise the government in the economic and financial fields, within the scope of its tasks. Additionally, Banco de Portugal is responsible for the following tasks [44]: Collection and compilation of the monetary, financial, foreign exchange and balance of payments statistics, particularly, in the scope of its collaboration with the ECB; Guidance and control of the money and foreign exchange

CISTI 2015 | 214

markets; Define and implement macro-prudential policy, namely by identifying, monitoring and assessing systemic risks, and by proposing and adopting measures to prevent, mitigate or reduce those risks, in order to strengthen the resilience of the financial sector; Exercise supervision of credit institutions, financial companies and other entities that are legally bound to it, in particular by establishing directives to guide their actions, providing credit risk centralisation services and applying preventive and corrective intervention measures under the legislation regulating financial supervision. Additionally, there are other ICT platforms to help the citizens relate with other public administration services, as exemplified by the Wearer Portal and the Citius Platform. The first Portal (in Portuguese, Portal do Utente) is supervised by the Minister of Health [45]. The Wearer Portal, part of the Health Data Platform (HDP), facilitates the sharing of information between wearers, health professionals and providers of health services entities. The HDP exists to improve the quality and efficiency of delivery of care in institutions of the National Health Service (NHS), giving greater autonomy to the user through the control and management of their health by monitoring their health data in an integrated way and access, easy and fast, the online services provided. Some of the electronic services available in the Wearer Portal are: make an appointment; ask for renewal of usual medication; or request exemption from wearer fees. The previous platform is directly linked with Health Portal (in Portuguese, Portal da Saúde) of the Minister of Health [46]. In this Portal, the citizens can find information about: Ministry of Health, such as its mission, the organic law and services that comprise; history of the NHS and its statute; Ministry of Health policies; medicines, as for example the drug name, active substances, selling price to the public, contribution rate, among other information; and pharmacies and drug sale to the home or over the Internet. On the other hand, the Citius Platform, supervised by the Minister of Justice [47], is a software application that allows processes dematerialisation in Courts. However, this platform only can be used by lawyers, trainee lawyers and solicitors who are registered for this purpose to the responsible entity for managing access; being possible, from its office, carry out the submission of procedural documents and their parts, executives requirements and injunctions, knowing the result of the distribution, consult judicial proceedings and measures relating to them. In resume, the use of ICT platform in public administration have the following objectives: citizen satisfaction with public services; lower costs for the government, citizens and businesses; increased transparency of processes; and participation in the democratic process through better dissemination of information [4]. IV. CONCLUSION The authors defend that the administrative modernization facilitate the citizen s life and , reducing the burden on businesses and increasing their competitiveness, as well as fostering economic growth. Indeed, the demand of the society of intensive knowledge in relation to

the landing of qualifications and competences grew considerably, carrying out the higher education, in general, and the ICT and Social Science, in particular, as a strategic function which promotes the area of information system as weapon to this growth. Effectively, the e-Services and/or e-Government have the potential to transform governance and the relationships between citizens, firms and State [48]. Through democratic, transparent and participatory processes effective governance is found in a global society that translated into cooperation with the lowest levels of government, private sector, other States, international organizations and citizens, in general. Overall, technological innovation allows new service models improve the information available from public administration and from institutional services to citizens and firms, responding to their needs; besides there are transversal services that promote coordination and cooperation between different entities, approximating the public administration to citizens and firms. ACKNOWLEDGMENT The authors wish to thank José Ángel Pérez López of Universidad de Seville (Spain), and the authors are members of the Centro de Investigação de Contabilidade e Fiscalidade. REFERENCES [1] [2]

[3]

Governo de Portugal, Council of Ministers Resolution n.º 12/2012, Global Strategic Plan to Rationalize and Decrease ICT Costs in Public . Lisboa: Gabinete do Secretário de Estado Adjunto do Ministro Adjunto e dos Assuntos Parlamentares, 2012. Organisation for Economic Co21st Century Technologies Promises and . Paris: OCDE, 1998.

[4] Humanas, 2012. [5]

Government for the , 2003.

Twenty-first Century: An Introd

[6] [7] [8]

Cabinet Office, 2011.

Communications Technology Strategy 2012Finance and Deregulation - Australian Government Information Management Office, 2012. [9] Asgarkhani, M., -Service in Local Government: -Government , 3 (4), pp. 157166, 2005. [10] Organisation for Economic CoGovernment Studies: The EPublishing, 2003. [11] Available in http://education.alberta.ca/teachers/program/ ict/programs/rationale.aspx, retrieved January 2015. [12] ramework Princeton, NJ: Educational Testing Service, 2002. [13]

-and-Communication Technology (ICT) and Local Power Relationships: An Impact Assessme -Government, 3 (4), pp. 231240, 2005.

CISTI 2015 | 215

[14] Research and Theory, 6 (1), pp.125-143, 1996. [15] Asgarkhan International Conference on Governance in Asia, Hong Kong, 2002. [16] Proceedings of 22nd National IT Conference, Sri Lanka, pp.57-65, 2003. [17] Growth in Least Developed Countries Trends, Challenges and [18]

-Government Research: Domains and Application Areas 1998 Journal of Electronic Government Research, 1, pp. 26-44, 2005.

[19]

and Modern Technology: Moving from Bureaucracy to Hyperarchy and Netcentricity 186, 2008. [20] Bellamy, C. and Taylor, J., 2Introduction: Exploiting IT in Public 72, pp. 1-12, 1994. -funded information technology transfer [21] Baark, E. and Heeks projects: evaluating the life-cycle approach in four Chinese science and 185-197, 1999. tion technology application: A Commonwealth perspective. Report on the Information Technology Policy Workshop 12London, UK: Commonwealth Secretariat, pp. 33-47, 1991. [23] Available in http://www.portaldasfinancas.gov.pt/, retrieved January 2015. [24] 2009. [25] 0/45/EU of 13 July 2010 amending Directive 2006/112/EC on the common system of [22]

European Union, L 189, July 27, pp. 1-8. [26]

[27]

[28] [29]

[30] [31] [32]

Communication Technologies in the Tax Administartion Taxpayer Assitence Channels and Platforms Janeiro: Inter-American Center of Tax Aministartions, 2014. Intraese Tax and Customs Authority Host a Delegation of Information -tax.org/iotanews/the-portuguese-tax-and-customs-authority-host-a-delegation-ofinformation-technologies-ict-officer-39.html, retrieved January 2015. Available in http://www.portaldocidadao.pt/PORTAL/pt, retrieved January 2015. Serviços disponíveis n Available in http://www.portaldocidadao.pt/PORTAL/pt/Listagens/?source=servicos, retrieved January 2015. Segurança Social Available in http://www4.seg-social.pt/, retrieved January 2015. Ministério das Finanças, Diário da República, 100 (1.ª Série), pp. 429-431, 1963. Ministério das Finanças Direção-Geral de Proteção Social aos

(1ª Série-A), pp. 7400-7412, 2005. [35]

Homepage Available retrieved January 2015.

[36]

in

Empresa http://www.portaldaempresa.pt/CVE/pt, -Lei nº 51/75, Cria o IAPMEI e define Governo, 32 (1.ª Série, 7 de Fevereiro),

pp. 167, 1975. [37] Instituto de Apoio às Pequenas e Médias Empresas e ao Investimento, IAPMEI Available in http://www.iapmei.pt/, retrieved January 2015. [38] Available in https://www.iefp.pt/, retrieved January 2015. -Lei nº 519-A2/79, Considera [39] atribuições do Ministério do Trabalho, além das referidas no artigo 2.º do Decreto-Lei n.º 47/78, de 21 de Março, participar activamente na Diário da República, 299 (1.ª Série, 8ºSupl), pp. 3446-(147), 1979. [40] Available in http://www.ine.pt/, retrieved January 2015. [41] INE Governo, 117 (1.ª Série), pp. 722, 1935. [42] Information (IES): Impact of Admin Data in the Impact of Admin Data in the production of Business Statistics production of Business Instituto Nacional de Estatística. [43] República, 12 (1.ª Série), pp. 378-388, 2007. [44] Available in https://www.bportugal.pt/, retrieved January 2015. Available in [45] https://servicos.min-saude.pt/utente/, retrieved January 2015. [46] Available in www.portaldasaude.pt/, retrieved January 2015. [47] Minist Available in www.citius.mj.pt/portal/, retrieved January 2015. [48] -Government and State Reform: Policy Dilemmas for -Government, 3 (4), pp. 167-174, 2005.

http://www.adse.pt/, retrieved January 2015. [33] Ministério das Finanças e do Plano e da Reforma Administrativa, to-Lei nº 118/83, Regula o funcionamento e o esquema de benefícios da Direcção-Geral de Protecção Social aos Funcionários e ADSE dentro dos princípios consignados no Decreto-Lei n.º 476/80, de República, 46 (1.ª Série), pp. 631-642, 1983. [34] Decreto-Lei nº 234/2005, Procede à terceira alteração do Decreto-Lei n.º 118/83, de 25 de Fevereiro, que estabelece o funcionamento e o esquema de benefícios da Direcção-Geral de

CISTI 2015 | 216

Artigos Curtos dos Workshops

CISTI 2015 | 217

7th Workshop on Intelligent Systems and Applications

CISTI 2015 | 218

Smartphone Robot for High School Students: RobHiSS Bruno Martins, André Costa, Carlos Caetano, Carlos Rodrigues, Gonçalo Ruão, Isaac Lopes, João Aguiar, Pedro Sousa, Pedro Silva, Tiago Correia

Armando Sousa INESC TEC (formerly INESC Porto) Faculty of Engineering, University of Porto Email: [email protected]

Faculty of Engineering, University of Porto This project arose from the absence in the market of Abstract a modular smartphone controlled robot capable of encouraging high school students to program and apply the physics and intention was to study the best way to develop a do-it-yourself (DIY) cost effective robot using only components off the shelf the objective of making this robot attractive to anyone with low an easy to understand language and a simple user interface, like the ones provided by Scratch and the MIT AppInventor2. The functional, physical and non-functional requirements for this robot and the free software developed are presented and validated attesting that this project was successfully completed.

I.

INTRODUCTION

This paper presents and describes the highlights of a project to build an educational robot that will encourage kids and high school students to learn how to program and apply maths and physics to a modular robot with a smartphone on it. As a guideline to its development, it needed to be able of participating in RoboCupJunior Rescue B which imposed some limits on the technology applied, dimensions and functionalities. The assembled team was divided into three main groups which were responsible for the three main sections of this robot. Each one of the sub-teams has researched the best way to achieve their objectives taking into consideration the cost and time needed to implement the different possible solutions. line follower robot capable of being programmable by high school thus stimulating their interest in learning a programming language, understand the basic laws of physics and apply maths to the algorithms created. II.

REQUIREMENTS

The team had into consideration the RoboCupJunior Rescue B rules and requirements as well as the ones imposed by the client on the several meetings that took place A. RoboCupJunior Rescue B Rules Summarize Having more than 30 cm of width Looking over 30 cm of height Wireless communications (except for Bluetooth class 2 or 3 and ZigBee)

Pre-mapped type of dead-reckoning The use of lasers Capable of lifting up an empty 33cL can Detect the rise of the air temperature by at least 10 Celsius degrees and signalling it B. Requirements and restrictions The client has also established some objectives and main restrictions for the robot: The main processing unit has to be a smartphone and take advantage of its camera and other functionalities It has to be modular and easily re-programmable It has to be capable of following a coloured line It has to be capable of encouraging high-school students to learn how to program and apply both physics and maths on a robot It has to be easy to build with COTS It has to safely stop moving upon bumping into anything After analysing the requirements from all the stakeholders, they were grouped into three main categories: 1) Functional requirements: The ability of following a coloured line on the ground The ability of detecting air temperature variations The ability to pick up an empty can The existence of an on/off button 2) Physical requirements: The robot shall move using wheels The ability to proceed along bumps and small debris Light and moderately fast Easy to assemble and rebuild with easily obtained COTS 3) Non-functional requirements: Educationally valuable The existence of a construction manual The existence of commercial documentation Given the above requirements, the challenge was developing new ideas and solutions while, as intended by projects.

CISTI 2015 | 219

III.

MARKET RESEARCH

With its goal set, the team studied how to develop a robot capable of receiving controlling instructions from a smartphone to be interpreted on a microprocessor. Therefore the project started to take shape, and the next stage was to decide the functionalities to be implemented while satisfying the imposed restrictions. Hence it was decided to build a small robot in a sturdy material with two traction

Two applications were developed for the smartphone. One for image processing, programmed in Eclipse using OpenCV libraries, to calculate the distance from the centre of the line to

used to determine if a pixel is similar to the selected one are presented on table I, where the hue value is relative to the selected pixel and the other values are absolute.

an empty can, a battery pack as the power source placed in the back for stability, one temperature sensor and one buzzer to announce the rise on the temperature above a threshold and two interruption switches that upon contact would open the electrical circuit that supplies the motors. With these guidelines two computer assisted designs were made and are shown in

Figure 3. Image processing algorithm strategy TABLE I.

IMAGE PROCESSING PARAMETERS

Parameters

Figure 1.

signs

At this stage the team divided the robot into three main sections to research and develop: 1) Structure and Locomotion which groups the base, the claw system, the smartphone stand, the interruption switches, the motors and the wheels. 2) Communication and Interfaces responsible for the temperature sensor, the buzzer and the power source. 3) Processing and Control designated to the software development and the selection of the microprocessor. IV.

PROPOSED APPROACH: ROBHISS

Minimum Value

Maximum Value

Hue

-15

+15

Saturation

60

255

Luminosity

60

255

The second application was developed using the MIT App Inventor 2 open source IDE to convert the values written by the image processing app into instructions interpreted by PWM outputs (from 0 to 255) to be transmitted in an and implemented to standardise the messages sent to the arduino. Its structure can be seen in table II. TABLE II.

BLUETOOTH MESSAGE COMPOSITION

Position

0

1

2

3

4

5

6

Value

$

# id

,

# Left

;

# Right

&

The development stage was next and a functional block interactions with itself and the outside world. As shown in

message, while the three remaining characters contain the

necessary components functionalities.

determine their arrival order and detecting faulty communications. The control values can go from 0 to 255 or

to

implement

the

required

table III. TABLE III.

BLUETOOTH MESSAGE S CONTROL VALUES

Function Move backward

Right Value

0 to 127

0 to 127

128 to 255

128 to 255

Pick up can

300

300

Lay down can

301

301

Set new temperature threshold

301

threshold

Move forward

Figure 2.

Left Value

CISTI 2015 | 220

The temperature variation functionality was designed to be interpreted directly by the arduino avoiding the need of transmitting this information to and from the smartphone. Building a prototype was necessary to test and validate the designed product and, thus, an objective model with all the desired functionalities was developed - the RobHiSS. Two phases were proposed, one being the construction of the structure and the printed circuit board (PCB) while the other one being the assembly of all components. Main components: 1) Base structure with 16 x 20 x 4 cm dimensions was cut from a roofmate board because of its resistance and easiness to work with. 2) Claw to lift an empty can was designed obeying to a relationship between resistance and weight. Thus it was from a polyvinyl chloride sheet (PVC).

Figure 4.

A complete list of materials is shown on table IV with the required quantities and prices. TABLE IV. Components Arduino Nano

1

Bluetooth Module

1

H Bridges L293DNE

1

Gearmotors and wheels

2

Third wheel (roll-on)

1

180 degrees servomotors

3

Temperature sensor MCP9700

1

Buzzer

1

Microswitches

2

Power switch SPDT

1

Voltage regulator UA7805C

1

AA batteries

6

Two batteries sockets

3

Breadboard

1

PVC sheet Roofmate board Copper wires, glue, sponge

qs

3) Printed Circuit Board (PCB) to take the prototype a

4)

5 with some of the main components already attached.

LIST OF MATERIALS Qty.

Totals

Local Prices

Online Prices

-

-

1

-

-

1

-

-

27

All these components were developed or acquired and then The interface of the application developed with the MIT and stop communication buttons and an image processing button to launch the application responsible for it. After that, the user chooses the colour of the line for the robot to follow by clicking on the screen and it will start moving.

Figure 5. PCB with some of the main components

5) Arduino nano responsible for interpreting the commands sent from the smartphone, the temperature variation and operating the actuators accordingly. 6) Gearmotors to provide the differential locomotion. 7) Servomotors, one of them is responsible for the grab and release actions of the claw while the remaining two lift and lower the claw itself. 8) Bluetooth module responsible for implementing the com 9) AA batteries equivalent to 7.2-9 nominal DC volts which work as the power supply of the whole system.

Figure 6.

For the sake of assisting anyone attempting to build the RobHiSS and in order to display the developed work, a website was created containing general information about the project and team, demonstration videos and a construction manual, which can be accessed through the following url http://paginas.fe.up.pt/~ee08114/SEAI/index.html.

CISTI 2015 | 221

Figure 7. Final prototype

V.

VI.

RESULTS VALIDATION

To prove that the achieved solution complies with what it was made for, the requirements were tested. These results can be seen on the tables V, VI and VII divided in functional, physical and non-functional requirements, respectively. TABLE V.

FUNCTIONAL REQUIREMENTS VERIFICATION

Requirements Ability to follow coloured lines Ability to detect a temperature increase above 10º C Ability to lift an empty can Stopping safely if it enters in contact with anything Immunity to external interferences

TABLE VI.

Verification Method Place the robot on top a coloured line and start it Aim a hair dryer set to heat to the robot Execute grand and lift routines Test the effectiveness of the microswitches Place the robot close to microwaves, TVs and phones

Result Passed Passed Passed

ACKNOWLEDGMENT Development Fund through the COMPETE Programme (operational programme for competitiveness) and by National Funds through the FCT Fundação para a Ciência e a Tecnologia (Portuguese Foundation for Science and Technology) within project FCOMP-01-0124FEDER-037281. The authors also wish to thank the Dept. of Electrical of this work.

REFERENCES

Passed Passed

PHYSICAL REQUIREMENTS VERIFICATION

Requirements Ability to move correctly with two wheels Not being affected by bumps and debris

Verification Method Make the robot move straight forward for at least 2 meters Place some bumps and small

Result

Light and moderately fast

Weight and measure its speed

Passed

Passed Passed

FUTURE WORK

The forthcoming work involves the design of custom made kits for the clients to assemble in partnership with electronic stores and the development of more applications for the robot.

[1]

T. M. Examiner,

[2] [3]

R. Meier, Professional Android 4 Application Development. 2012. 373, 2014.

[4] [5] [6] [7]

31, 2011. Engineering, ISSN, vol. 3, no. 5, pp. 10 13, 2012. 11, 2008. -

.

[8] TABLE VII. Requirements must be below 100 Layered software architecture and debris Light and moderately fast

Group. K. Dawson-Howe, A Practical Introduction to Computer Vision with OpenCV (Wiley-IS&T Series in Imaging Science and Technology). 2014. [10] G. Bradski and A. Kaehler, Learning OpenCV: Computer Vision with [9]

PHYSICAL REQUIREMENTS VERIFICATION Verification Method Verify the sum of the cost of all components Assess software architecture

Result

Weight and measure its speed

Passed

Passed Passed

[11] A. Chopra, Google SketchUp 7 for Dummies. 2009. [12] Wei-Meng Lee, Beginning Android 4 Application Development. 2012.

CISTI 2015 | 222

Ontologia de Aplicação para o Desenvolvimento de Sistemas de Detecção de Intrusão Baseado em Casos Application Ontology for the Development of Casebased Intrusion Detection Systems Rayane Meneses, Adriana Leite

Rosario Girardi

Departamento de Ciência da Computação DEINF/GESEC Universidade Federal do Maranhão São Luís, Brasil

Departamento de Ciência da Computação DEINF/GESEC Universidade Federal do Maranhão São Luís, Brasil

Resumo Este trabalho propõe uma ontologia de aplicação que representa formalmente os conceitos relacionados ao domínio de segurança da informação, dos sistemas de detecção de intrusão e do raciocínio baseado em casos. A avaliação da ontologia foi realizada através do desenvolvimento de um IDS que permite detectar ataques a redes de computadores e recomendar soluções a esses ataques. Os resultados mostraram que o IDS desenvolvido apresentou boa efetividade na detecção de ataques e portanto, conclui-se que a ontologia proposta conceitualiza de forma adequada os conceitos de domínio e tarefa abordados.

além de uma taxonomia de ataques, os relacionamentos entre dados coletados, e utilizá-los para deduzir que determinados dados caracterizam um ataque [10]. Uma ontologia pode ser classificada como ontologia de alto-nível, domínio, tarefa ou aplicação [6]. Assim, um IDS pode ter sua base de conhecimento estruturada como uma ontologia de aplicação que reusa conceitos de segurança da informação (domínio) e das atividades de detectar e alertar (terefas) sobre ataques.

Palavras Chave Ontologias; Segurança da Informação; Sistemas de Detecção de Intrusão; Ataques de rede.

Development of Caserepresenta formalmente os conceitos relacionados ao domínio de segurança da informação, dos sistemas de detecção de intrusão e CBR ( Case-Based Reasoning ). O CBR é um paradigma de resolução de problemas no qual é possível utilizar conhecimentos de experiências passadas para resolver novas situações. A ONTOID foi construída no editor de ontologias Protegé [12], representada utilizando a linguagem OWL (Ontology Web Language) [11] e, para povoá-la com casos de ataques, foi utilizado o conjunto de dados NSL-KDD [7]. Um protótipo de um IDS foi construído para realizar uma avaliação preliminar da ONTOID.

{meneses.matematica, adri07lc}@gmail.com

Abstract This work proposes an application ontology who is capable of formally represent the concepts present in the domain of Information Security together with the intrusion detection systems and case-based reasoning. The ontology was evaluated through the development of an IDS capable of detect computers networks attacks and recommend actions to such attacks. The results showed that the developed IDS presented good effectiveness in the detecting attacks, and so it is concluded that the proposed ontology conceptualizes properly the domain concepts and task. Keywords Ontologies; Information Security; Intrusion Detection Systems; Network Attacks.

I.

INTRODUÇÃO

Muitos mecanismos de segurança têm sido desenvolvidos para mitigar os problemas de ataques à segurança da informação, dentre eles estão os Sistemas de Detecção de Intrusão (IDSs), tráfego de uma rede de computadores em busca de intrusões, atividades de usuários não autorizados e ocorrências de práticas [5]. Entretanto, a maioria são sistemas de informação tradicionais nos quais seus repositórios de ameaças não são representados semanticamente. As ontologias são estruturas de representação do conhecimento que permitem uma representação das relações semânticas entre conceitos de um determinado domínio bem como a construção dos sistemas baseados em conhecimento, os quais fornecem uma maior efetividade em relação aos sistemas tradicionais. Aplicando ontologias para a detecção de intrusão é possível expressar,

[email protected]

Este

trabalho propõe

uma ontologia de aplicação the

O presente trabalho está organizado em seis seções, incluindo essa introdução. A segunda apresenta a conceitualização do domínio de segurança da informação na ONTOID. Na terceira é apresentado o desenvolvimento da ONTOID, bem como a descrição dos seus principais conceitos e tarefas. A quarta seção apresenta um estudo realizado para a avaliação da ONTOID. Na quinta seção apresenta-se alguns trabalhos relacionados e, por fim as conclusões e trabalhos futuros são apresentados na sexta seção. II.

O DOMÍNIO ABORDADO

O domínio abordado neste trabalho é o de segurança da informação, que é a proteção da informação de vários tipos de ameaças para garantir a continuidade do negócio, minimizar o risco ao negócio, maximizar o retorno sobre os investimentos e oportunidades do negócio [4]. Para diminuir riscos e satisfazer as expectativas dos usuários uma organização precisa garantir três princípios básicos: confidencialidade, integridade e disponibilidade [4].

CISTI 2015 | 223

que a informação não será disponibilizada ou divulgada a [4]. A integridade é a propriedade de proteção à precisão e perfeição de ativos [4]. A disponibilidade é a propriedade de que a informação esteja acessível e utilizável sob demanda por uma entidade autorizada [4]. Para garantir esses princípios e evitar que softwares maliciosos invadam um computador, tem sido desenvolvidos mecanismos de segurança como criptografia, backups, ferramentas antimalware (antivírus, antispyware, antispam etc.), firewall e IDSs. Um Sistema de Detecção de Intrusão (IDS) é um mecanismo de segurança que monitora o tráfego de uma rede de computadores em busca de intrusões, atividades de usuários não autorizados e ocorrências de práticas mal intencionadas [5]. Ele pode detectar invasões a um sistema de computação e alertar o administrador da rede para que ele possa tomar as ações corretivas para evitar a intrusão. Os IDSs que monitoram uma rede são chamados de NIDS (Network Based Intrusion Detection System) e os que monitoram apenas um dispositivo são chamados de HIDS (Host Based Intrusion Detection System). Entre as funções de um IDS listadas por [9], examinar o tráfego de uma rede, reconhecer atividades e padrões típicos de ataques e enviar um alerta para o administrador de segurança da rede são funções abordadas neste trabalho como tarefas da ontologia proposta e são descritas na seção seguir. III. ONTOID: UMA ONTOLOGIA DE APLICAÇÃO PARA O DESENVOLVIMENTO DE IDSS BASEADOS EM CASOS Para guiar a construção da ONTOID foi utilizado um processo e ferramenta de desenvolvimento proprietários do grupo de pesquisa dos autores. A representação dos casos na ONTOID é baseada no paradigma CBR. A. Representação dos casos A ONTOID possui três classes que representam os casos: que consistem de um problema e uma solução, sendo que

B. Representação dos conceitos do domínio A Fig. 2 apresenta a descreve os principais conceitos do domínio de segurança da informação descritos a seguir. Uma ameaça pode ser natural, por exemplo, uma falha de software, ou intencional, mais conhecida como ataque. Ela pode prejudicar um ou mais ativos de informação (algo que tem valor para uma organização) e afeta um ou vários princípios de segurança da informação. Um ataque pode ser classificado em ataque de interrupção, interceptação ou modificação; é criado e realizado por um atacante (pessoa mal intencionada) para afetar determinados tipos de sistemas operacionais. Um ativo de informação pode ter vulnerabilidades que, por sua vez, são usadas por atacantes para realizar ataques, o que torna o ativo frágil e mais sujeito às ameaças e, elas possuem riscos (perigo ou possibilidade de perigo). Os princípios de segurança da informação são suportados por um ou vários mecanismos de segurança como ou seja, os mecanismos dão suporte para garantir que os objetivos AttackCategories dos princípios sejam alcançados. representa as categorias de ataques no NSL-KDD que são: DoS attacks, Probe, R2L(Root to Local) e U2R (User to Root Attacks). C. Representação das tarefas da ONTOID A utilizados na realização das tarefas da ONTOID (Fig 3). A que estão sendo monitorados (os novos pacotes). As tarefas específicas são monitorar o tráfego de uma rede de computadores, analisar os pacotes que são monitorados, identificar problemas de ataques, detectar ataques e fornecer solução para um ataque encontrado. A classe relacionamento

. IV.

cada um desses problemas. A Fig. 1 mostra uma representação dos relacionamentos entre essas três classes. As propriedades do conjunto de dados NSL-KD, um conjunto de dados gerados a partir da simulação de ataques de intrusão ao ambiente de uma rede de computadores.

Figura 1. Classes da ONTOID para a representação de um caso de ataque

ESTUDO DE CASO

O estudo de caso apresentado nesta seção visa realizar uma avaliação preliminar da ONTOID através do protótipo de um IDS baseado em casos denominado CBRase-Based qual utiliza a ontologia desenvolvida como base de conhecimento e o CBR para recomendar soluções e detectar ataques a partir da identificação de ataques similares já representados na ONTOID. Uma forma de avaliar a efetividade de uma ontologia é medindo a efetividade do sistema que a utiliza, assim, a avaliação da ONTOID foi realizada através da avaliação da efetividade do CBR-IDS. Ele foi desenvolvido em Prolog utilizando o ambiente LPA Win-Prolog [15] e a ontologia, especificada na linguagem OWL, foi mapeada automaticamente para uma base de conhecimento em Prolog utilizando a ferramenta Thea [13]. A ONTOID foi povoada com casos de ataques utilizando o repositório NSL-KDD. A Fig. 4, mostra o pseudocódigo da funcionalidade básica do CBR-IDS. Ele tem como entrada um pacote de dados de ataques simulados através dos pacotes de dados do NSL-KDD.

CISTI 2015 | 224

Figura 2. Principais conceitos do domínio da segurança da informação e seus relacionamentos

Figura 3. Principais tarefas de um IDS representadas na ONTOID

Figura 5. Exemplo de parte de um novo pacote de dados de ataque instanciado na ONTOID Figura 4. Funcionalidade básica do CBR-IDS

sim_case(N CP, KBCP)

Após a entrada do pacote o sistema cria uma instancia desse pacote na ONTOID, conforme ilustra a Fig. 5. Cada pacote de entrada representa um novo caso problema (NCP). O sistema compara o NCP com cada caso problema na ONTOID (KBCP) calculando a similaridade entre eles de acordo com as fórmulas 1 e 2, onde a similaridade de cada caso é o somatório da similaridade entre cada atributo do NCP com o atributo correspondente do KBCP, sendo que a cada atributo é atribuído um peso que reflete sua importância na descrição do ataque. Neste trabalho o peso foi considerado igual para todos os atributos.

n j 1

w j sim_attribute j (Cncp j , Ckbcp j )

NCP: New Case Problem; KBCP: Knowledge Base Case Problem; j é o índice associado a cada atributo do problema utilizado na recuperação; wj é o peso atribuído ao atributo; sim_attributej é a função que calcula a similaridade entre os valores do atributo do NCP e do KBCP. É dada pela fórmula a seguir: j j

j

j

CISTI 2015 | 225

j

j j

Cncpj é o conjunto formado pelo(s) valore(s) do atributo do NCP, e por sua hierarquia de superconceitos, quando houver, por exemplo: Cncpduration = 0 onde, 0 é o valor do atributo Ckbcpj é o conjunto formado pelo(s) valor(s) do atributo do KBCP e por sua hierarquia de superconceitos, quando houver, por exemplo Ckbcpservice = Após realizar o cálculo de similaridade, o CBR-IDS recupera casos que tenham similaridade maior do que 0,83 (ponto de corte obtido experimentalmente). Se não houver casos similares na ONTOID, o sistema encerra, pois não há nada a fazer. Caso contrário o CBR-IDS seleciona a solução do caso de ataque mais similar e a recomenda ao usuário conforme ilustra Fig. 6. Na experiência utilizou-se um conjunto de 100 NCPs, ou seja, 100 novos pacotes de dados do conjunto NSL-KDD e, a ONTOID foi instanciada com 1005 casos de ataque também do conjunto NSL-KDD. A efetividade das soluções recomendadas foi avaliada através da medida de precisão tradicional da área de recuperação de informação [14] onde, a precisão é calculada como a razão entre o número de soluções relevantes recuperadas (numero de casos bem resolvidos) e o número total de casos recuperados.

contexto de alertas de ataques à rede para gerar novas políticas mas, não detecta ataques na rede. Este trabalho contribui com uma ontologia de domínio que permite o reuso de conhecimento para o desenvolvimento de outras ontologias de aplicação voltadas para a segurança da informação além de uma ontologia de tarefas para o desenvolvimento de IDSs baseados em casos. Outra contribuição importante foi o protótipo do IDS desenvolvido para a avaliação que tem como principais funcionalidades, identificar ataques e fornecer uma possível solução para eles. Contudo, a efetividade do sistema pode ser melhor avaliada com a realização de outros experimentos. AGRADECIMENTOS Este trabalho é apoiado pela agencias de fomento brasileiras CAPES e FAPEMA. REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3] [4] [5]

S. Arora, R. Bawa, and M. Student, A Review on Intrusion Detection System to Protect Cloud Data, International Journal of Innovations e Advancement in Computer Science, vol. 3, pp.30 34, 2014. H. Benmoussa, et al., Towards a new intelligent generation of intrusion detection system, Proceedings of the 4th Edition of National Security Days (JNS4), pp.1 5, 2014. N. C. Boulahia, et al., An ontology-based approach to react to network International Journal of Information and Computer Security, vol. 3, pp.280 305, 2009. BSI, BS ISO/IEC 27001:2005 Information technology Security techniques Information security management systems Requirements . October, vol. 3, p. 44, 2009. H. Debar, Intrusion Detection Systems: Introduction to Intrusion Detection and Analysis, Secur Nato Science Series III, vol. 193, IOS Press, edited by Borka Jerman Blazic, Wolfgang Schneider and Tomaz Klobular, 2004.

[6] [7] Figura 6. Exemplo de uma solução recomendada pelo CBR-IDS

Dos 100 casos de ataque, 54 tiveram soluções recomendadas. Em média, obteve-se uma precisão de 76%, o que leva a considerar como efetiva as soluções recomendadas pelo CBR-IDS baseado na ONTOID. Assim, este estudo de caso mostra que a atual conceitualização da área da segurança da informação na ONTOID é efetiva, embora maiores experiências sejam necessárias para incrementar a precisão das recomendações. V.

[8] [9]

[10]

CONCLUSÕES

A ontologia de aplicação desenvolvida neste trabalho, apresenta uma conceitualização do conhecimento relacionado à segurança da informação bem como as principais tarefas de um IDS, sendo avaliada através do desenvolvimento do protótipo de um IDS baseado em casos. Alguns trabalhos como [3], [8] e [10], também desenvolveram ontologias de aplicação para a segurança da informação, [8] e [10] possuem a tarefa de segundo possui uma representação semântica pobre, sendo apenas uma taxonomia de ataques. A ontologia de [3] identifica

[11] [12] [13] [14] [15]

press, 1998. S. Revathi and A. Malathi, A Detailed Analysis on NSL-KDD Dataset Using Various Machine Learning Techniques for Intrusion Detection International Journal of Engineering Research & Technology (IJERT), vol. 2, pp.1848 1853, 2013. T. M. Rosa, Uma Ontologia para Sistema de Detecçao de Intrusão em Web Services, Dissertação de mestrado, Pontifícia Universidade Católica do Paraná, 2011. T. S. Sawant and S. A. Itkar, A Survey and Comparative Study of Different Data Mining Techniques for Implementation of Intrusion International Journal of Current Engineering and Technology, vol. 4, pp.1288 1291, 2014. J. Undercoffer, A. Joshi, and J. Pinkston, Modeling Computer Attacks: An O In G. Vigna, C. Kruegel, e E. Jonsson, eds. Recent Advances in Intrusion Detection, Lecture Notes in Computer Science. Springer Berlin Heidelberg, pp. 113 135, 2003. D. L. Mcguinness and F. V. Harmelen, OWL Web Ontology Language Disponível em: < http://www.w3.org/TR/owl-features>. Acessado em: Maio de 2014, 2004. Stanford. Disponível em: . Acessado em: Maio de 2014. V. Vassiliadis, J. Wielemaker and C. Mungall, Processing OWL2 Ontologies using Thea: An Application of Logic Programming, Sixth International Workshop OWLED, Virginia, USA, vol. 529, 2009. G. Salton and C. Buckley, Term Weighting Approaches in Automatic Cornell University, 1987. B. Steel, Chimera Agents for WIN-PROLOG . Disponível em: . Acessado em: Maio de 2014, 2005

CISTI 2015 | 226

1st Workshop on Communication and Journalism on Social Networks

CISTI 2015 | 227

El Test de Valor Público en las Televisiones de Reino Unido y Alemania Public Value Tests in the British and German Public Broadcasters Marta Rodríguez Castro Facultade de Ciencias da Comunicación Universidade de Santiago de Compostela Santiago de Compostela (España) [email protected] En este artículo se analizan y comparan los test de Resumo valor público operativos en las emisoras públicas de Reino Unido (Public Value Test) y Alemania (Drei-Stufen-Test), que tienen como objetivo evaluar los servicios que llevan a cabo en los nuevos medios digitales. A lo largo de la investigación se plasmará el funcionamiento de los primeros dos test de valor público operativos en Europa, con el objetivo de encontrar las principales similitudes y diferencias entre ambos casos. Además, se pretende dar a conocer estas pruebas para fomentar su conocimiento y la posible instalación en las televisiones públicas de otros países europeos. Palabras Clave - ARD, BBC, Drei-Stufen-Test, políticas de comunicación, Public Value Test, televisión pública, test de valor público, valor público, ZDF Abstract This article analyzes and compares the public value tests used by the public broadcasters in the United Kingdom (Public Value Test) and Germany (Drei-Stufen-Test). Both tests aim to assess the services performed in the new digital media. -ante tests work, finding the most important similarities and differences between them. It is also intended to introduce these test in order to promote their establishment on other European public broadcasters. Keywords - ARD, BBC, Drei-Stufen-Test, ex-ante tests, media politics, public broadcasting, Public Value, Public Value Test, ZDF.

I.

INTRODUCCIÓN

La demanda de transparencia a los organismos públicos se ha acrecentado en los últimos años debido a la crisis económica, que incrementa en los ciudadanos la necesidad de saber qué se hace con su dinero. En este contexto, los organismos de radiodifusión públicos de los países europeos se han visto obligados a controlar más y mejor su gestión, además de definir de forma más clara sus funciones como servicio público, especialmente a partir de la Comunicación da Comisión Europea sobre la aplicación de las normas en materia de ayudas estatales a los servicios públicos de radiodifusión de 2009, en la que se recoge la necesidad de

implantar pruebas de evaluación previa a la implantación de nuevos servicios por parte de las radiotelevisiones públicas. Los test de valor público suponen un paso adelante dentro de este proceso de aumento de la transparencia y concreción del servicio público. Sin embargo, hasta la fecha no se ha estudiado lo suficiente, a excepción de determinados autores británicos y alemanes. El análisis comparativo entre los todavía pocos test de valor público implantados en Europa es bastante escaso, especialmente en países cuyos medios de comunicación públicos no disponen de esta herramienta. Tal es el caso de España, donde el objeto de esta investigación cuenta con muy poca relevancia en el mundo académico y profesional. Este artículo nace del interés por un objeto de estudio todavía reciente y en proceso de maduración, con el objetivo de poder revelar deficiencias y ayudar a proponer mejoras. Además, en el caso de España, podría despertar un cierto interés por su implantación en RTVE y apoyar un cambio en la corporación pública que contribuya limpiar un poco su imagen. A la hora de realizar esta comparativa, se tendrán en cuenta primeramente los motivos que llevan a la implantación del Public Value Test y del Drei-Stufen-Test. Se analizará también el funcionamiento de cada una de las pruebas: cómo se llevan a cabo, quién las realiza y qué repercusiones tienen sus resultados. Esto nos permitirá vislumbrar dos concepciones de los medios de comunicación públicos, que a pesar de estar incluidos dentro del mismo marco europeo, responden a políticas culturales nacionales diferentes. Esta comunicación forma parte de las investigaciones desarrolladas por la Red Internacional de Investigación de Gestión de la Comunicación (R2014/026 XESCOM), coordinada por el grupo Novos Medios de la Universidad de Santiago de Compostela, conjuntamente con la participación de los grupos IMARKA de A Coruña, NECOM y MILE de Vigo así como investigadores de las Universidades Fernando Pessoa, Departamento de Lenguas e Literaturas Modernas de Açores y Centro de Estudos de Comunicaçao e Sociedade da Universidade do Minho en Portugal, del Grupo Medios y Sociedad de la Autónoma de Tamaulipas de México y de las Escuelas de Comunicación de las Universidades Técnica

CISTI 2015 | 228

Particular de Loja y Pontífica Católica sede de Ibarra de Ecuador. Con estas dos últimas universidades (PUCESI y UTPL) de Ecuador la XESCOM participa en el Programa Prometeo de SENESCYT. II.

MATERIALES Y MÉTODOS

El objeto de estudio que nos ocupa demanda una investigación entre exploratoria y descriptiva. El método empleado ha sido cuantitativo, centrado en el análisis de datos. Se ha comenzado por consultar toda la información relativa al test de valor público que publican tanto la BBC como ARD y ZDF en sus respectivas páginas web, desde guías explicando su funcionamiento hasta las conclusiones (y decisiones) a las que han llegado. Posteriormente, se han consultado los artículos escritos hasta la fecha sobre los test de valor público. El texto del profesor de la Universidad de Bergen Hallvard Moe, in Different National Contexts, sienta las bases sobre las que se construye esta investigación. La investigación se centra en el período de tiempo comprendido desde 2007, con la implantación del Public Value Test en la BBC, hasta la actualidad. Sin embargo, para poder entender bien los motivos que llevan a la implantación de este test, no podemos limitarnos únicamente a estas fechas. III.

RESULTADOS

A. Public Value Test El Public Value Test que evalúa los potenciales nuevos servicios de la BBC lleva en funcionamiento desde 2007. En el BBC Agreement se recoge que la BBC debe ser capaz de hacer cambios en sus servicios (y también en sus no-servicios) para adaptarse a los cambios en la tecnología, la cultura, las condiciones de mercado o las expectativas del público. Estos cambios, que deben ser normales en la BBC, son propuestos por su ejecutiva (BBC Executive) al órgano regulador que se encarga de controlar la actividad de la BBC de forma independiente a la ejecutiva (BBC Trust). Si BBC Trust considera que el cambio propuesto por BBC Executive podría ser significativo, se inicia el proceso de realización del Public Value Test. Antes de llevar a cabo el Public Value Test, la ejecutiva de la BBC debe encargarse de la preparación de una solicitud formal para la BBC Trust con toda la información necesaria para la valoración del cambio propuesto, incluyendo una descripción pormenorizada del mismo y la escala, el impacto y el presupuesto esperados. Incluso se podrían realizar pruebas o pilotos del cambio propuesto. El test de valor público sólo se realizará si la BBC Trust considera significativo el cambio atendiendo a cuatro parámetros: su impacto (para lo que se tiene en cuenta la escala de impacto en los usuarios, otros servicios de la BBC y el mercado), las implicaciones financieras, en relación con los gastos asociados al cambio , su innovación (si el cambio supone una ampliación de la actividad de la BBC hacia áreas todavía inexploradas) y su duración. En algunas ocasiones, BBC Trust puede invitar a Ofcom, el organismo regulador de

las industrias de la comunicación en Reino Unido, a aportar su punto de vista sobre el impacto potencial de la propuesta. La Secretaría del Estado de Cultura, Medios de Comunicación y Deporte debe ser notificada de las propuestas de introducción de un nuevo servicio, y puede hacer uso de un veto procedimental. En caso de que tras analizar los cuatro puntos anteriores BBC Trust considerase que la propuesta de cambio no es suficientemente significativa como para llevar a cabo el Public Value Test, la Secretaría de Estado debe ser igualmente notificada. Si por el contrario, se ha encontrado significativa la propuesta, se inicia el Public Value Test. En primer lugar, se hace público el arranque del proceso y se notifica al Joint Steering Group (JSG), ya que se necesitará de su colaboración para la parte de la prueba dedicada al impacto en el mercado. Se realiza además un calendario con las fases del proceso, que debería completarse en seis meses. El test de valor público británico consta de dos evaluaciones diferentes. Por una parte, la evaluación del valor público (Public Value Assessment, PVA), realizada por la BBC Trust. Por la otra, está la valoración del impacto en el mercado (Market Impact Assessment, MIA), llevada a cabo por la Ofcom. BBC Trust será la encargada de estudiar las dos evaluaciones y extraer las conclusiones pertinentes. El PVA tiene como objetivo valorar el valor público que la propuesta de cambio podría generar. Esta evaluación incluye una consulta pública en la que habitualmente participan representantes de los pagadores del canon. Tras un período pautado en 28 días, se publicará un resumen con el análisis de todos los comentarios recibidos de la consulta. También se emplean otras fuentes como los resultados de pruebas o pilotos, estudios de consumo cualitativos y cuantitativos, pruebas del impacto de la propuesta en determinados sectores de la audiencia, o asesoría de expertos independientes. Los parámetros de referencia a la hora de realizar el PVA son los cuatro impulsores del valor público: la calidad, el alcance, el impacto (tanto al nivel individual del usuario como en la repercusión de la propuesta en el conjunto de la sociedad) y la relación calidad-precio (value for money) Por su parte, la evaluación de mercado (MIA) realizada por la Ofcom se centra en el efecto que la propuesta de cambio puede tener en el mercado de forma más amplia, tanto en el momento actual como en el futuro. En esta evaluación también participa el Joint Steering Group (JSG ), que se encarga de supervisar el trabajo de la Ofcom. De forma general, se aspira a que BBC Trust y la Ofcom se pongan de acuerdo para publicar el PVA y el MIA de forma simultánea. Una semana después de la publicación del PVA y el MIA, BBC Trust publicará sus conclusiones provisionales. Para ello, se tiene en cuenta que cualquier impacto adverso en el mercado que pueda generar la propuesta debe estar altamente justificado por el valor público creado. También se considera la introducción de cambios dentro de la propuesta que puedan incrementar el valor público o reducir el impacto en el mercado. Tras otro período de 28 días, en los que BBC Trust consulta sus conclusiones provisionales, se publicará la decisión final: aprobar el cambio, aprobar el cambio con

CISTI 2015 | 229

condiciones, o rechazar la propuesta. Ésta es la última fase del Public Value Test, y la decisión del Trust es definitiva. La conclusión de la prueba se comunica a la Secretaría de Estado de Cultura, Medios de Comunicación y Deportes, que considerará si emplear o no su derecho de veto. B. Drei-Stufen-Test El Drei-Stufen-Test operativo en Alemania desde 2009 es consecuencia de la convergencia de dos confrontaciones: el sector privado con el público, y la Comisión Europea con el Gobierno de Alemania. El test de valor público alemán tiene una organización diferente, en la que los consejos de la ARD y de la ZDF cuentan con un peso central. Son objeto del Drei-Stufen-Test todos los servicios calificados como Telemedia (nuevos medios digitales, especialmente los basados en Internet), tanto los ya existentes como las propuestas de nuevos servicios. Para su evaluación, se tienen en cuenta aspectos como el público objetivo, el contenido, su posición y su duración. El primero de los tres pasos que componen esta prueba tiene como objetivo evaluar si el objeto de análisis se puede incluir en la misión de servicio público, y que por lo tanto se corresponde con las necesidades democráticas, sociales y culturales de la sociedad. Para ello, es necesario identificar y definir de forma minuciosa el servicio que se está evaluando. Son las propias emisoras las encargadas de este paso, aunque se pueden contrastar las evaluaciones internas con asesores externos. El segundo paso se centra en examinar si el servicio contribuye a la calidad de la competición editorial mediática. Para esto se tiene que conocer primeramente cuál es esta competencia que se pretende mantener, realizando un análisis de mercado que permita calcular el impacto potencial del servicio evaluado. Se deben demostrar las ventajas estructurales de la emisora pública para cada proyecto. Para esta fase de la prueba se suele contar con la ayuda de expertos externos cuyo mayor conocimiento del mercado pueda asesorar a los consejos de la emisora pública. El último de los pasos de la prueba alemana evalúa los gastos necesarios para llevar a cabo el servicio. La información necesaria para esta tercera parte del Drei-Stufen-Test la tienen las emisoras de primera mano, y son ellas, una vez más, las que realizan el análisis. La decisión final está en manos de los Consejos de la ARD o de la ZDF, a pesar de que puedan contar con el apoyo de informes de expertos externos y deban dar a terceros la oportunidad de formular observaciones durante un plazo que ronda las 6 semanas. Cabe destacar que estos Consejos están formados, aparte de por altos representantes de las emisoras, por miembros voluntarios propuestos por instituciones de relevancia social en representación de los intereses del público en general. IV.

DISCUSIÓN

Analizando los procesos de ambos test de valor público, se puede establecer una primera comparativa en relación a los parámetros que emplea cada uno. Ambas pruebas realizan un estudio tanto del valor público del servicio como de su impacto

en el mercado. Sin embargo, el análisis del mercado (MIA) del Public Value Test pesan más las consideraciones de competencia económica que editorial, que sí cuenta con una gran relevancia en el segundo paso del Drei-Stufen-Test (aunque esto no implique que se descuide el aspecto económico). De igual forma, los parámetros a los que atiende fundamentalmente cada uno de los procesos para considerar la relevancia del servicio evaluado también tienen puntos en común, como la duración o el impacto (en relación con el público al que se quiere llegar, el público objetivo). El valor público como concepto también está mucho más presente en el Public Value Test que en su correspondiente alemán. El motivo de esta situación se encuentra en el origen de cada una de las pruebas: mientras que el Public Value Test nace de la combinación de las presiones del sector privado y la voluntad de la BBC de reafirmarse como un servicio público de calidad, el Drei-Stufen-Test es fruto de las negociaciones entre la Comisión Europea y los servicios de radiodifusión públicos a raíz de las protestas de la competencia privada. Por otra parte, resulta interesante la distribución de las competencias en cada uno de los test. Mientras que en el DreiStufen-Test el Consejo de las emisoras públicas tiene el poder de decisión, el caso británico destaca por contar con un organismo independiente (BBC Trust) a cargo del control y de la ejecución del Public Value Test. La evaluación del impacto en el mercado (MIA) incluida dentro del PVT también la realiza un organismo independiente de la ejecutiva de la BBC, la Ofcom, mientras que este apartado del Drei-Stufen-Test lo realizan las propias emisoras públicas, que pueden contar con asesoramiento de terceros, pero que mantienen el poder de dictar la última palabra. Por lo tanto, el Public Value Test se presenta como una prueba más autónoma e independiente que el Drei-Stufen-Test. Sin embargo, también hay que tener en cuenta que los documentos que regulan el funcionamiento del Public Value Test contemplan la posibilidad de que el Secretario de Estado de Cultura, Medios de Comunicación y Deporte pueda ejercer su derecho de veto, hecho que carece de equivalencia en los homólogos alemanes. Desde una perspectiva más amplia, se puede analizar el número de pruebas realizadas hasta el momento por cada uno de los países. En Alemania se han realizado un total de 38 pruebas todas aprobadas- entre junio de 2009 y agosto de 2010, contando tanto las de la ARD como las de la ZDF. Por su parte, la BBC ha elaborado un número considerablemente menor. Hasta la fecha, sólo 4 proyectos han sido sometidos al Public Value Test, de los cuales tres han sido y uno no ha superado la prueba. El motivo de la diferencia cuantitativa entre los test llevados a cabo por las emisoras británica y alemanas es doble. En primer lugar, el Public Value Test está limitado a las propuestas de introducción de nuevos servicios o de modificaciones notables en servicios existentes, mientras que el Drei-Stufen-Test se ha aplicado también a todos los servicios online que estaban ya en activo en las cadenas públicas alemanas. Si se tuviesen en cuenta tan sólo los servicios nuevos, el Drei-Stufen-Test se habría empleado en un total de 3

CISTI 2015 | 230

ocasiones, sumando dos servicios nuevos conjuntos de la ARD y ZDF y uno de la ZDF. Por otra parte, hay que tener en cuenta la diferencia entre los dos sistemas de radiodifusión pública. La estructura federal de la televisión alemana, sumada a su segunda cadena estatal, tienen una repercusión lógica en el número de pruebas de valor público que se llevan a cabo V.

CONCLUSIONES

En la nueva era digital en la que nos encontramos, las televisiones públicas han tenido que hacer frente a la dicotomía dada entre ser pioneras en la explotación de los nuevos medios y las presiones del sector privado. Los test de valor público se constituyen como la mejor opción a la hora de conciliar ambas partes. Por lo que se ha expuesto en esta investigación, se puede concluir que tanto el Public Value Test como el Drei-StufenTest son como son debido a las circunstancias bajo las que nacen. En el caso británico, se trata de aprovechamiento de las reprobaciones del sector privado para consolidarse como una de las emisoras públicas más avanzada al mismo tiempo que transparente. La prueba alemana es fruto también de las presiones de las emisoras privadas ante el avance de la ARD y la ZDF en los nuevos medios, transmitidas a las emisoras públicas por parte de la Comisión Europea. Es el caso alemán el que pueda marcar mejor una línea de actuación para las demás emisoras públicas europeas que decidan (o se vean obligadas a) establecer un test de valor público, al tratarse de una medida exigida por la Comisión Europea (recordemos que el Public Value Test antecede en dos años al Drei-Stufen-Test y es una iniciativa que surge dentro del marco nacional). Por otra parte, el desarrollo de estas pruebas de valor público resalta la importancia de los nuevos medios con respecto a los medios de comunicación tradicionales. Tanto el test británico como el alemán tienen como objeto los servicios que se desarrollen en este nuevo entorno digital, lo que nos indica que es en este ámbito donde se encuentran las mayores posibilidades de ampliar el mercado de lo que hasta ahora conocíamos como radiodifusión. A. Futuras líneas de investigación Reino Unido y Alemania no son los únicos países que cuentan con un test de valor público en sus organismos de radiodifusión públicos. Estudiar el funcionamiento y los resultados de las pruebas de otros países como Noruega, Dinamarca y Austria ayudaría a elaborar una concepción más general en torno a los ex ante tests.

de valor público puedan trabajar, especialmente en España. Por lo tanto, la principal línea de investigación abierta es cómo llevar estos test de valor público a los distintos países europeos que todavía no lo tienen. Finalmente, cabría estudiar también la repercusión de las conclusiones de las pruebas a largo plazo, para comprobar si todo lo que evaluaban y adelantaban a priori se corresponde con el impacto que los servicios alcanzarán en realidad. BIBLIOGRAFÍA [1] [2]

[3] [4]

[5]

[6]

[7]

ARD, Dreistufentest. Disponible en: http://www.ard.de/home/intern/gremien/aus-der-gvkarbeit/Dreistufentest/69796/index.html (Consulta 2/11/2014) BBC (Junio 2014), Building public value. Renewing the BBC for a digital world. Disponible en: http://downloads.bbc.co.uk/aboutthebbc/policies/pdf/bpv.pdf (Consulta 5/11/2014) BBC Trust, Public Value Tests. Disponible en: http://www.bbc.co.uk/bbctrust/governance/tools_we_use/public_value_ tests.html (Consulta: 30/10/2014) Comisión Europea (2009), Comunicación de la Comisión sobre la aplicación de las normas en materia de ayudas estatales a los servicios públicos de radiodifusión. Diario Oficial de la Unión Europea. Disponible en: http://ec.europa.eu/competition/state_aid/legislation/broadcasting_com munication_es.pdf (Consulta: 10/11/2014) Donders, K. y Pauwels, C. (2010) The introduction of an ex ante evaluation for new media services: 'Europe' asks it of public service broadcasting needs it? International Journal of Media & Cultural Politics, 6 (2), 133-148. Humphreys, Peter (2010), El futuro de la radiodifusión pública en Reino Unido y Alemania. Infoamérica, nº3-4. Disponible en: http://www.infoamerica.org/icr/n03_04/humprheys.pdf (Consulta: 7/11/2014) Humphreys, Peter (2010), Public Policies for Public Service Media: the UK and the German Cases (with warnings/lessons from the USA. En

University of Westminster and the BBC, Londres. Disponible en: http://ripeat.org/wp-content/uploads/tdomf/1348/Humphreys.pdf (Consulta: 8/11/2014) [8] Jivkova Semova, Dimitrina (2011), Estrategia para la implantación del Test de Valor Público en España: propuesta de procedimiento. Observatorio (OBS*) Journal, vol.5 nº1. [9] Michalis, Maria (2012), Balancing public and private interests in online media: the case of BBC Digital Curriculum. Media, Culture & Society, vol. 34, nº8. Disponible en: http://mcs.sagepub.com/content/34/8/944 (Consulta: 16/11/2014) [10] RBB, Drei-Stufen-Test. Disponible en: http://www.rbbonline.de/rundfunkrat/dst/drei_stufen_test.html (Consulta: 3/11/2014) [11] ZDF, Drei-Stufen-Test. Disponible en: http://www.zdf.de/drei-stufentest-25101186.html (Consulta: 3/11/2014) [12] ZDF (Febrero 2011), Evaluation Drei-Stufen-Test. Disponible en: http://www.zdf.de/ZDF/zdfportal/blob/27107114/1/data.pdf (Consulta: 14/11/2014)

Uno de los propósitos de este artículo era desarrollar una base sobre la que futuras investigaciones alrededor de los test

CISTI 2015 | 231

Estrategias de los diarios online de proximidad para las redes sociales: el caso de La Voz de Galicia Online local media´s strategies for social networks: the case of La Voz de Galicia Xosé López García, Ana I. Rodríguez, Xosé Soengas Departamento de Ciencias de la Comunicación Universidade de Santiago de Compostela Santiago de Compostela, España [email protected] [email protected] [email protected]

La industria de los medios tradicionales de Resumo comunicación ha pasado de mirar de reojo a las redes sociales generalistas, en el momento de su aparición y en la primera fase de su popularización, a darle prioridad en el diseño de sus estrategias de actuación, tanto para la difusión como para el trabajo informativo. El motivo ha sido el creciente incremento de las visitas de usuarios a los medios online desde las redes sociales, que en algunos casos ya supera el cincuenta por cien de los visitantes únicos, y el convencimiento de que las redes sociales han venido para quedarse. Estas calles virtuales que enredan el ciberespacio se han revelado como un escenario central no solo en el funcionamiento del ecosistema comunicativo actual sino como un elemento central en buena parte de las estrategias de los actores económicos, sociales y políticos, lo que contribuye a construir un nueva cultura marcada por el eco de los enredados. Esta comunicación analiza los cambios en los diarios online y elige como ejemplo el caso de La Voz de Galicia 1. Palabras Clave - Redes sociales, periodismo, comunicación de proximidad, estudios periodísticos. Abstract The industry of traditional media has completely changed its attitude towards generalist social networks. Although 1 Esta comunicación forma parte de las investigaciones desarrolladas por la Red Internacional de Investigación de Gestión de la Comunicación (R2014/026 XESCOM), apoyada por la Consellería de Educación, Cultura e Ordenación Universitaria da Xunta de Galicia y coordinada por el grupo Novos Medios de la Universidad de Santiago de Compostela, conjuntamente con la participación de los grupos IMARKA de A Coruña, NECOM y MILE de Vigo, así como investigadores de las Universidades Fernando Pessoa, Departamento de Lenguas e Literaturas Modernas de Açores y Centro de Estudos da Comunicação e Sociedade da Universidade do Minho en Portugal, del Grupo Medios y Sociedad de la Autónoma de Tamaulipas en México y de las Escuelas de Comunicación de las Universidades Técnica Particular de Loja y Pontificia Católica sede de Ibarra de Ecuador. Con estas dos últimas Universidades (PUCESI y UTPL) de Ecuador la Red XESCOM participa en el Programa Prometeo de SENESCYT. Además, este artículo forma parte de la divulgación de los resultados del proyecto de investigación del Ministerio cibermedios en España. Arquitectura de la interactividad periodística en dispositivos múltiples: Referencia: CSO2012-38467-C03-03.

initially media have acted as simple observers when social networks appeared and became popular, at present they have incorporated these networks to their policy strategies, both for the dissemination of information and for the daily work. The reasons have been the constant increase of users visits (which in some cases exceeds 50% of unique visitors), and the strong belief that social networks have come to stay. These virtual streets forming the cyberspace have emerged as the main scenario in the functioning of the current ecosystem of communication, and also in a good part of the strategies of economic, social, and political actors. Moreover, this has directly contributed to the construction of a new culture marked by the impact of these networks. The present paper analyses the changes that have taken place in online media, selecting La Voz de Galicia as a test case. Keywords - social networks, journalism, local communication, journalism studies.

I.

INTRODUCCIÓN

Las redes sociales transformaron la forma de comunicarse de muchos ciudadanos en la sociedad que gira alrededor de Internet. A medida que pasan los meses y los años de la segunda década del tercer milenio, cobran más fuerza como eje de difusión y gestión de todo tipo de mensajes de comunicación, al tiempo que incrementan su importancia en el panorama periodístico. El progresivo incremento de los dispositivos móviles ha alimentado nuevos usos y consumos comunicativos en los que las redes sociales generalistas y las especializadas están no solo presentes, sino que sus escaparates de mensajes se han convertido en un importante almacén por el que, a modo de punto de encuentro, pasan muchos usuarios con el fin de descubrir las piezas más insospechadas, hacer un pequeño viaje comunicativo o entablar una conversación multidireccional. El potencial del uso de las redes sociales como canal de difusión de los mensajes periodísticos, como espacio de búsqueda de temas y de fuentes informativas, y como interacción para una renovada relación con los usuarios ha

CISTI 2015 | 232

animado a los responsables de los medios a diseñar estrategias para estos nuevos espacios de la comunicación mediada tecnológicamente, en una fase en la que las cabeceras tradicionales atraviesan por una importante crisis y cuando el tránsito a la sociedad en red se ha convertido en una turbina de mudanzas que exige constante innovación para no perder el tren del futuro. La delicada situación de los medios, que inicialmente se desentendieron de las redes sociales, aparece como uno de los principales motivos del cambio de tendencia en la actuación de la industria, que ha contemplado como la consolidación de la sociedad enredada constituye una característica de la evolución de una sociedad que ha abrazado a Internet como paradigma de la comunicación total y mundial. A medida que las redes han ido formando parte del centro neurálgico de las sociedades actuales, los medios han dado pasos para aprovechar estas plataformas de comunicación que han desarrollado un nuevo modelo de negocio basado en la interacción y el intercambio social que se ha unido a la economía de la atención y la publicidad procedente de los medios tradicionales [1]. El potencial informativo y comunicativo que han demostrado estas redes en las conocidas e comenzaron en la primavera de 2011, confirmándolas como una alternativa a la censura oficial, [2], les ha catapultado al primer plano de los debates públicos sobre alternativas a los modelos de control informativo ejercidos por los gobiernos de muchos países. Fue el espaldarazo definitivo para este nuevo entramado comunicativo al que muchos acuden para hacer visibles sus iniciativas. II.

LA MIRADA PERIODÍSTICA

Las redes sociales, que no nacieron con fines periodísticos y que muchos profesionales de la información minusvaloraron en sus inicios, pronto mostraron sus ventajas comunicativas para un modelo de sociedad enredada. Su capacidad para hacer más visibles hechos relevantes ha sido un factor determinante para que muchos periodistas y medios abrazasen las redes sociales como compañeras de viaje en la búsqueda de renovadas fórmulas informativas y económicas que permitan vencer los desafíos colocados por el escenario de crisis actual. Los profesionales más jóvenes pronto mostraron vías para sacarles partido en la labor de recogida, producción y difusión de los mensajes periodísticos. Y, sobre todo, entendieron que en ellas se contaban historias, lo que forma parte de su cometido profesional. El papel del periodista en las sociedades actuales, al igual que en el siglo XX, consiste, básicamente, en relatar lo que pasa en la sociedad, es decir, tiene que explicar los hechos mediante unas técnicas sedimentadas y asumidas profesionalmente y socialmente como las más adecuadas para garantizar la indagación de aquello que hay detrás de los hechos puntuales y su contextualización a fin de que los ciudadanos puedan entender la complejidad de esos acontecimientos y formar su criterio. Y este trabajo lo hace en la sociedad de la conectividad, con la ubicuidad de la comunicación, presente en muy diferentes lugares de fácil acceso, y con unos usuarios que no solo reciben, sino que también producen información. El profesional del periodismo

más habilidoso, en alguien que pueda no solo entretejer los datos de un acontecimiento o de un proceso, sino también conectarlos en un conjunto mucho más amplio de hechos y [3]. Este cometido relacional del trabajo periodístico se hace ahora de la mano de los usuarios activos que, mediante su participación en los procesos, cambian las dinámicas y pueden resultar muy relevantes tanto para la confección de la pieza periodística, para su seguimiento y evolución, y para su recomendación a otros usuarios (la multiplicación de la difusión). Las propias dinámicas de trabajo de las redacciones de muchos medios fueron llevando a los periodistas a este nuevo escenario de las redes sociales, por donde han tenido que caminar para la realización de su cometido profesional. Fue así como pronto quedaron atrapados, con mayor o menor intensidad, en la dinámica de las redes sociales. Esta rápida apuesta periodística de algunos sectores profesionales por las redes sociales ha reavivado el viejo debate sobre cómo debe actuar el profesional de la información en los conocidos genéricamente como nuevos medios. La respuesta, desde el ámbito académico y desde el ámbito profesional, ha sido mayoritaria alrededor del planteamiento que sostiene, como explica Alejandro Rost, l periodista tiene que usar en estos espacios los mismos parámetros que a la hora de elaborar cualquier información, ser prudente con el uso de la ironía, ser consciente de que sus seguidores pueden ser público muy diverso (en cuanto a países, por ejemplo), cuidar a sus fuentes, construir y proteger su propio prestigio como periodista, y no perder de vista que [4]. Mientras persisten debates profesionales sobre el uso de las redes sociales, algunos medios regularon la forma en que deben emplearla sus periodistas y determinadas asociaciones introdujeron decálogos de autorregulación. Se trata de un desafío que afrontan mientras asumen que hay que contar con las redes sociales para realizar el trabajo periodístico en las sociedades actuales. Pero no existe unanimidad sobre cómo utilizar las redes sociales por parte de los periodistas. III.

NUEVA CULTURA PROFESIONAL

La cultura periodística actual ha asumido, con diferentes consideraciones, las redes sociales como un elemento del contexto comunicativo que incide en la práctica del ejercicio profesional. De hecho, figura como uno de los principales cambios en las rutinas profesionales de los periodistas del siglo XXI. En el año 2013, el 40 por ciento de los periodistas norteamericanos ya indicaba que las redes sociales eran muy importantes para su trabajo y más de un tercio ya reconocía que dedicaba entre treinta y sesenta minutos cada día a las redes sociales [5]. Los principales medios online promovidos por la industria que ha nacido y se ha desarrollado de la mano del papel, tras entender que las redes sociales son algo más de una moda cultivada por las generaciones más jóvenes, han dado pasos para que sus periodistas conozcan las nuevas herramientas y se adentren en los canales alternativos que han surgido en la última década. El impulso, en la mayor parte de los casos, ha nacido de los profesionales más jóvenes y de los sectores más

CISTI 2015 | 233

emprendedores de esas empresas. En España, no solo los medios de información general con mayor difusión (El País o El Mundo) han fomentado entre sus periodistas una cultura 2.0 basada en la integración de las redes sociales en sus trabajos [6], sino también los medios regionales y locales. El índice de utilización de las redes sociales por parte de los periodistas españoles es relevante en la actualidad y las redes más utilizadas son Twitter y Facebook en las rutinas de la producción diaria. El intenso uso se sitúa por encima del 80 por ciento de los profesionales [7]. Otras investigaciones recientes muestran como los periodistas españoles están en la red y las usan de alguna forma, indicando porcentajes en la misma dirección. Una tesis doctoral sobre periodistas y redes sociales elaborada recientemente en la Universidad Carlos III de Madrid señala que el 95 por cien de los periodistas españoles entran en la red para publicar información y el 82 por cien para buscar noticias [8]. Y los periodistas emplean estas redes sociales para completar la investigación periodística y no para reemplazar sus principios básicos [9]. IV.

LA APUESTA DE LAVOZ.COM

Tanto el índice de utilización por parte de los periodistas como la introducción de las redes en los productos periodísticos ha llevado a los principales grupos de comunicación a elaborar estrategias para las redes sociales. Uno de los diarios de referencia, The New York Times/ NYT.com, ha puesto en marcha varias estrategias en las redes sociales para mejorar su relación con la audiencia [10]. Esta tendencia ha sido seguida por los principales medios, incluidos los de proximidad. En el caso que hemos analizado, La Voz de Galicia lavoz.com, también hemos constatado que ha hecho una clara apuesta por las redes sociales para la elaboración de su producto online y para la gestión de su comunicación con sus usuarios. Las dos redes que más utilizan sus redactores son Twitter y Facebook. Esta última red es la que utiliza lavoz.com para crear una comunidad que, según datos de finales de 2014, disponía de 340.000 fans en la cuenta general de La Voz de Galicia y otros cien mil en las cuentas locales o en proyectos de nicho, como la comunidad de emigrantes Global Galicia 2. La estrategia del medio está ofreciendo una continua incorporación de usuarios y un mayor participación, lo que ha llevado a los responsables de lavoz.com a valorarlo positivamente y ha proseguir con su estrategia en las redes sociales. Su comunidad en Facebook se ha revelado como un dinamizador de los procesos comunicativos del grupo y de sus productos. Más del treinta y siete por cien de su audiencia llega desde Facebook.

seguir rediseñando sus estrategias para las redes sociales y buscar todavía una mayor eficacia que la conseguida hasta ahora 3 . Su estrategia no contempla una vuelta atrás y todo apunta a que de su laboratorio de innovación saldrán renovadas propuestas para las redes sociales que aplicará el grupo tanto en la comunicación corporativa como los profesionales en su trabajo diario. V.

En el momento actual, la mayoría de los periodistas reconocen que han introducido en sus rutinas profesionales las redes sociales y que resultan útiles para cumplir con sus cometidos. Las nuevas dinámicas comunicativas han obligado a los medios informativos online a diseñar estrategias tanto para la mejora de la relación con los usuarios como para conseguir la mayor eficacia a la hora de aprovechar sus potencialidades por parte de los centros de producción de contenidos. Este diseño de estrategias no solo lo aplican los grandes cibermedios de referencia mundial, sino también los cibermedios de proximidad. El estudio de caso de lavoz.com muestra el potencial de la red Facebook para crear una comunidad muy dinámica que alimenta los procesos comunicativos del producto. La estrategia de los diarios online en la actualidad contempla las redes sociales como un instrumento básico no sólo para la producción y la difusión de sus mensajes, sino para la gestión de sus estrategias de comunicación que diseñan para la sociedad de la conectividad. Los medios de proximidad, como lo evidencia el estudio del caso de lavoz.com, abrazaron esta estrategia a partir de las experiencias de las cabeceras de referencia, como The New York Times, y de su propia experimentación durante los últimos cuatro años en estas plataformas de comunicación. REFERENCIAS BIBLIOGRÁFICAS [1]

Lavoz.com también tiene previsto iniciar estrategias de nicho en Instagram y en Pinterest. Y los periodistas seguirán apostando por Twitter para difundir sus trabajos, en especial en algunas secciones que siguen la actualidad deportiva. Lo que no dudan los responsables de lavoz.com es que precisan

[2]

2

3

Los datos proceden de la entrevista realizada al responsable de lavoz.com,

CONCLUSIONES

Las redes sociales generalistas no solo transformaron la forma de comunicarse de los ciudadanos en la Sociedad de la Información y el Conocimiento sino que están transformando las rutinas profesionales de los periodistas, que las emplean para la búsqueda, elaboración, difusión y gestión de sus piezas informativas. El uso de estos espacios implica la aplicación de los principios periodísticos para la elaboración de información, es decir, de sus códigos deontológicos y la preceptiva, pero en un nuevo contexto y en un escenario donde debe trabajar en contacto directo con los usuarios activos.

[3]

F. Campos La gestión de los medios tradicionales en las redes sociales en F. Campos (Coord.), Recopilatorio de artículos científicos sobre redes sociales. La Laguna (Tenerife): Sociedad Latina de Comunicación Social, 2013, p. 359. en las revueltas Comunicar, nº 41, 2013, pp. 1-10. J.V. Pavlik, El periodismo y los nuevos medios de comunicación. Barcelona: Paidós, 2005, pp. 336-337.

los cibermedios en España. Arquitectura de la interactividad periodística en

Los datos proceden de la entrevista realizada al responsable de lavoz.com, Tomás los cibermedios en España. Arquitectura de la interactividad periodística en

Referencia: CSO2012-38467-C03-03.

Referencia: CSO2012-38467-C03-03.

CISTI 2015 | 234

[4] [5] [6] [7]

2012 [IV Congreso Internacional de ciberperiodismo y web 2.0, p. 11]. The American Journalist in The Digital . . Del 11M al 15M , p. 264]. (2004-

[8]

(2004-

. Del 11M al 15M II de Madrid, p. 243].

(2004-

. . Del 11M al 15M dad Carlos III de Madrid, p. 14].

[9] [10]

.

CISTI 2015 | 235

Política televisada y su reflejo en twitter: medios y seguidores TV Politics showed in Twitter: media and followers Salvador Enguix-Oliver

Beatriz Gallardo-Paúls

Universitat de València España [email protected]

Universitat de València España [email protected]

Resumen En este trabajo presentamos una investigación en curso referida a la utilización de la red digital twitter por parte de los medios de comunicación; se analiza un corpus de 3000 tuits pertenecientes a tres programas de televisión sobre la actualidad política (Los desayunos de TVE, en la cadena pública TVE1, y Las Mañanas Cuatro y Al Rojo Vivo, de las cadenas privadas Cuatro y La Sexta), así como un corpus de 1523 tuits de respuestas producidas por los seguidores. El modelo de análisis utilizado es un modelo lingüístico de base neuropragmática, que interpreta las marcas de subjetividad e interacción como correlato directo de la teoría de la mente. Palabras Clave - neuropragmática; twitter; discurso político mediático; teoría de la mente. Abstract The aim of this work is to present an ongoing research relating to the use of twitter by the media; a corpus of 3000 tweets from three TV politic shows are being analized (Los desayunos de TVE, in the public channel TVE1, and Las Mañanas Cuatro and Al Rojo Vivo, of private channels Cuatro and La Sexta) and a corpus of 1523 tweets responses produced by followers. The analysis model used is a neuropragmatic based linguistic model, that consider brands of subjectivity and interaction as a direct corollary of the theory of mind. Keywords neuropragmatics; twitter; political media discourse; theory of mind.

I.

autoelogio. Por el contrario, en el discurso político de segundo nivel que representan los medios de comunicación [3, 4], la vocación informativa explica el predominio de actos de habla representativos, supuestamente comprometidos con la veracidad de los significados. Estas dos enunciaciones (la de los políticos y la de los medios) se complementan en las redes sociales con el tercer actor que constituyen los ciudadanos. Aparentemente, las redes sociales digitales suponen lo que , su acceso directo al espacio público, y pueden ser vistas como el campo de despliegue de la inteligencia colectiva teorizada, entre otros, por Lévy [5, 6]. En la investigación que presentamos en este trabajo aplicamos un modelo de análisis del discurso de base neuropragmática para comprobar, en primer lugar, hasta qué punto se confirma esa sociabilidad en el uso de las redes digitales por parte de los usuarios de twitter; y en segundo lugar, las posibles diferencias en el uso de twitter por parte de distintos programas televisivos de actualidad política. En última instancia, las categorías identificadas a partir de teorías neurolingüísticas nos han de permitir describir la capacidad de mentalización en el usuario de la red social y, por tanto, su posible contribución a esa inteligencia colectiva que definiría el . Buscamos la caracterización cognitivacomunicativa del usuario de la red a partir de su uso verbal.

INTRODUCCIÓN Y OBJETIVOS

Los medios de comunicación descritos para la sociedad postmasas requieren modelos teóricos ajustados a acciones comunicativas donde no se intenta informar ni convencer sino sólo ocupar espacio público, conseguir la venta o el voto a cualquier precio [1]. Sería este, pues, un discurso monológico y autocentrado, que prescinde del destinatario. Y sin embargo, las redes sociales ofrecen un marco comunicativo abierto que parece privilegiar el diálogo y la interacción, fomentando la participación (reactiva) del ciudadano/votante en la esfera comunicativa pública. En trabajos anteriores hemos establecido que el discurso político de primer nivel, correspondiente a los representantes institucionales y de partido, se caracteriza por su naturaleza ensimismada y autorreferencial [2], lo que en el ámbito intencional explica el predominio de actos de habla con ilocutividad expresiva, básicamente de ataque al oponente y de

II.

LOS DATOS

A. Dos corpus de datos El estudio que presentamos se basa en dos corpus. El Corpus T lo integran 3000 tuits pertenecientes a, por un lado, Al Rojo Vivo (ARV) y Las Mañanas Cuatro (LMC), que se emiten simultáneamente en las dos cadenas privadas La Sexta y Cuatro; y por otro lado, Los Desayunos de TVE (DTVE), emitido en horario matinal (de 08:30 a 10:05 h) en el primer canal de la cadena pública Radiotelevisión Española. Para la elaboración de la muestra se realizó una exportación automática, el día 20 de enero de 2015, mediante la aplicación TwDocs, que proporcionó un fichero final de 3000 ítems, para cada uno de los cuales se cuenta con la siguiente información referida al momento de la exportación: Fecha de creación del tuit; Texto; Enlace del tuit; Fuente); Autoría; Cómputo de retuits; Cómputo de favoritos; Nombre de la cuenta; Alias de la cuenta; Fecha de creación de la cuenta; Localización; Lengua;

CISTI 2015 | 236

Cómputo de seguidores; Cómputo de tuits; Cuenta protegida; Cuenta verificada; Descripción de la cuenta; Página web de la cuenta. TABLE I.

CORPUS T DE TUITS DE INICIO

Antigüedad

Fin corpus

Inicio corpus

Tuits / Programa

Media RT

Media FV

ARV

12.02.2011

20.01.2015

05.12.2014

33,3

14,3

6,1

DTVE

04.09.2012

20.01.2015

24.10.2014

19,6

4,3

1,1

M4

08.09.2011

20.01.2015

12.12.2014

38,5

37

12,9

La Tabla I refleja valores medios de los tuits de las tres cuentas, incluyendo retuits y marcas como favorito. Además de estos datos obtenidos automáticamente, para cada tuit se contabilizó el número de respuestas de los usuarios de twitter, y después se seleccionó manualmente un Corpus R, de respuestas, a partir de los comentarios que aparecen en el desplegable de cada tuit (Tabla II). A fin de homogeneizar cronológicamente estas respuestas, para cada programa se eligieron 3 catas de 20 tuits a partir de los días 20 enero, 30 de diciembre y 12 diciembre, correspondientes a los días inicial, final y medio del corpus de LMC, el más breve temporalmente. TABLE II.

CORPUS R DE TUITS DE RESPUESTA Horario habitual

Tuits de respuesta en 60 tuits de inicio

ARV

De lunes a viernes, de 12:15 a 14:00

553 (total: 7548)

DTVE

De lunes a viernes, de 08:30 a 10:05

353 (total: 2395)

LMC

De lunes a viernes, de 12:20 a 14:00

617 (total: 10639)

El resultado final es una muestra de 3000 tuits iniciativos, generados por los tres programas de información política, y 20582 tuits reactivos, redactados por los espectadores/seguidores, de los cuales se analizan cualitativamente un total de 1523. B. Las tres cuentas de los tres programas El programa Al Rojo Vivo se emite en la cadena televisiva La Sexta; su cuenta de twitter fue creada el 12 de enero de 2011, y en el momento de obtención del corpus contaba con 147.784 seguidores y 11.800 tuits. El tuit más antiguo es del 5 de diciembre de 2014, lo que proporciona un período global de 47 días que, si eliminamos los días en que no hubo programa, se concreta en un total de 30 días, con una media de 33,3 tuits diarios. El programa Las Mañanas Cuatro se emite en la cadena televisiva Cuatro; su cuenta de twitter fue creada el 8 de septiembre de 2011, y en el momento de obtención del corpus contaba con 50.196 seguidores y 19.888 tuits. El tuit más antiguo es del 12 de diciembre de 2014, lo que supone un período global de 40 días totales que se reducen a 26 programas eliminando los días sin emisión con una media de 38,5 tuits por programa. El programa Los Desayunos de TVE se emite en la cadena pública TVE-1; su cuenta de twitter se abrió el 4 de septiembre de 2012, y en el momento de obtención del corpus contaba con 11.112 seguidores y 9621 tuits; el período de los 1000 tuits se

extiende un total de 89 días en los que se emiten 51 programas, con una media de 19,6 tuits por programa. III. FUNDAMENTOS NEUROCOMUNICATIVOS Y CATEGORÍAS Una de las ideas neurocientíficas de más alcance explicativo formulada en las últimas décadas es, sin duda, la de la Teoría de la mente (TdM) o capacidad intersubjetiva, propuesta desde la primatología para referirse a la capacidad de conferir creencias, sentimientos e intenciones a otros sujetos [8]. En la teoría de la simulación de los estados mentales, las neuronas espejo han sido propuestas como soporte neurológico de este principio, en la medida en que su función permite a un organismo detectar estados mentales en los congéneres observados [9]. Paralelamente, los modelos pragmáticos desarrollados por la neurolingüística clínica [10,11] han permitido considerar que ciertas categorías fundamentales son un correlato verbal de la teoría de la mente. En concreto, las huellas formales de la enunciación [12] que usa el hablante para introducir su subjetividad en los mensajes, y las categorías de predictibilidad derivadas del principio de cooperación [13], que le permiten implicar en el mensaje a los receptores mediante el enlace con turnos ajenos, pueden interpretarse como marcas lingüísticas concretas de intersubjetividad, es decir, de interacción y diálogo. En definitiva, el sujeto con teoría de la mente asume que su interlocutor es, como él mismo (conceptualizar al Otro como sujeto significa, paralelamente, que existe un concepto del sí mismo), un sujeto comunicativo e intencional, y deja huellas de esta doble premisa en sus mensajes. Desde un punto de vista discursivo los dos corpus analizados configuran en sí mismos dos tipos distintos de intervención conversacional, que pueden ser definidos en términos de orientación interactiva. Así, los tuits del corpus T se interpretan como tuits iniciativos de intercambios, y los tuits de los seguidores son, por tanto, tuits reactivos. Mientras la emisión de mensajes supuestamente informativos (+/iniciativos/) es definitoria de las cuentas gestionadas por los programas, el usuario identificado acceso similar al uso reactivo e iniciativo (si bien nuestro corpus se limita al reactivo). Por tanto, twitter ofrece un escenario de consumo anónimo pero también de participación activa, convirtiendo los mensajes iniciativos de los medios en turnos desencadenantes, dignos de difusión memética, pero también de respuesta o comentario explícito y público. De tal posibilidad pragmática nace el mito de las redes sociales como fuente de socialización, participación y movilización social, fenómeno frecuentemente aducido a propósito de hechos recientes en la actualidad política como el 15M o la Primavera árabe, pero que se constata especialmente desde campañas electorales de 2008 y 2010 [14, 15, 16]. Las cuentas emisoras de los programas, por su parte, tienen igualmente acceso a los tuits reactivos y en teoría podrían responder a los tuits de sus seguidores, pero la manifestación más próxima a turnos reactivos por parte de estas cuentas se limita al uso del retuit, que es utilizado ocasionalmente (16,9 % en los tuits de LMC y 10,7% en los de DTVE). Predomina, por tanto, en las cuentas de los programas, un uso iniciativovertical, a partir del cual los seguidores redactan sus

CISTI 2015 | 237

comentarios y ocasionalmente establecen entre ellos breves intercambios de tuits reactivos-horizontales. Esta oposición entre turnos iniciativos y reactivos reformula el contraste entre una visión piagetiana que enfatiza el uso representacional del lenguaje (corpus T: relación vertical emisor-receptor, pensamiento, información, hemisferio izquierdo, localizacionismo), y un modelo vigotskiano que privilegia su uso interaccional, dialógico (corpus R: relación horizontal emisor-receptor, conversación, comunicación, hemisferio derecho, conexionismo). Desde planteamientos neurocomunicativos, la sociabilidad comunicativa desplegada en el corpus R tiene su arraigo en la capacidad intersubjetiva que deriva de la Teoría de la mente; esta teoría, como hemos dicho, señala que ciertos primates se caracterizan por su habilidad para otorgar a sus pares sentimientos, intenciones y creencias, es decir, por ser capaces de concebir a un congénere como sujeto. Desde los años 80 la neurolingüística ha propuesto un déficit de TdM en poblaciones afectadas por déficits lingüístico-comunicativos, como hablantes con autismo, síndrome de Williams, esquizofrenia, TDAH, o demencias tipo alzhéimer [11]. En el ámbito discursivo, la existencia de TdM puede verificarse mediante pruebas de comprensión (tareas de falsa creencia), pero también buscando marcas expresivas de la subjetividad a partir de un análisis cualitativo como el que presentamos. Teniendo en cuenta estas marcas formales, y partiendo del esquema dialógico de arranque que diferencia entre tuits/turnos iniciativos y reactivos, analizamos en cada tuit categorías referidas a tres dimensiones significativas: de qué se habla (dimensión referencial), qué acción se realiza (dimensión intencional) y, dada la naturaleza de nuestro corpus, desde qué alineamiento político (dimensión valorativa).

Predictibilidad: menciones (@) de cuentas que suponen respuesta a tuits previos. La inclusión de las cuentas ajenas funciona como los movimientos de enlace que vinculan los turnos con intervenciones ajenas. Todos los tuits R son reactivos, como mínimo, al tuit que comentan, pero con frecuencia responden también acumulativamente a otros tuits. Los estudios sobre espectacularización han destacado la capacidad (y la necesidad) de la televisión de hacer que el espectador se sienta coprotagonista y copartícipe de la actualidad, lo que J. Timoteo describe como formar parte del [1]. El simulacro conversacional que ofrece twitter puede considerarse en este sentido un índice de coparticipación. Intertextualidad y dialogismo: en el corpus R la inclusión explícita de la segunda persona (como marca de interactividad y coparticipación) o, en el corpus T, la alusión directa a otros medios que son el origen de la noticia en cuestión. C. Dimensión valorativa: categorías relativas al alineamiento (político) Manifestación clara de conformidad o discrepancia con el tuit desencadenante; recurso a elementos de descortesía e inferencia. Orientación concreta de los actos expresivos como ataque o elogio (a los políticos, a los invitados, al propio programa, a otros tuiteros). Este rasgo enlaza directamente con la espectacularización y la dramatización de la información política [17], que son a su vez rasgos propios de la narrativización que caracteriza el discurso público.

A. Dimensión referencial: categorías relativas al contenido Protagonistas del tuit, es decir, estrategia de encuadre predicativa (solo en el Corpus T). Uso de cita literal. Esta categoría, que alinea los tuits T con el periodismo de declaraciones, combina la dimensión referencial con el encuadre intertextual, que permite introducir la voz de los distintos protagonistas políticos [2]. Tema, no siempre coincidente entre un tuit T y sus correspondientes tuits R. Uso de etiquetas temáticas (#): funciona como marca de coherencia textual, proporcionando claves de encuadre (frame) interpretativo (sobre todo en LMC). B. Dimensión ilocutiva: categorías relativas a la intención Ilocutividad, es decir, el encuadre intencional del tuit, la acción comunicativa que realiza. Los tipos básicos de acto de habla esperables en el corpus T son los de información, pero aparecen también tuits expresivos de valoración. En el corpus R los más esperables son los actos representativos de comentario y los actos expresivos de valoración.

IV.

PRIMEROS RESULTADOS

La investigación se halla actualmente en curso, pero podemos adelantar ya resultados parciales referidos al uso de twitter por los tres programas. Los rasgos analizados constituyen indicadores de capacidad intersubjetiva, por lo que las conclusiones específicamente neurocomunicativas sobre los usuarios de la red dependerán del análisis completo. Por lo que se refiere a la frecuencia de uso y al grado de respuesta obtenido por parte de la comunidad tuitera, la comparación más equilibrada es la que implica a los dos programas de las cadenas privadas, emitidos en el mismo horario. Vemos que LMC es sin duda el programa más activo en twitter, su cuenta es la más antigua y la que más tuits publica por programa. Estos tuits tienen una media de 10,7 comentarios por parte de los seguidores, una media de 37 retuits y de 12,9 marcas como favoritos. ARV es un poco menos activo, con una proporción de 33,3 mensajes por programa. Sin embargo, el programa de La Sexta tiene más del doble de seguidores; no obstante, los retuits y favoritos son menores que en LMC; su media de comentarios por tuit iniciativo es de 7,5. El programa que menos tuits publica es el de la cadena pública, cuyo horario de emisión es en la primera franja de la mañana. LMC y DTVE coinciden además en el uso del retuit y

CISTI 2015 | 238

en la frecuencia de tuits metainformativos, que avisan al espectador sobre los contenidos del programa, sobre el momento de inicio y finalización, sobre el hastag

de capacidad intersubjetiva, ha de permitir establecer perfiles neurocomunicativos de usuarios/seguidores, y contribuir a la reflexión sobre política y participación en la red.

Por lo que se refiere a la estructura de los mensajes, el tuit prototípico de ARV es un mensaje informativo que incluye un enlace al vídeo concreto que se emite en el programa; en una alta proporción, esta información incluye citas literales de fragmentos del vídeo en cuestión. Estos enlaces no son permanentes, de manera que en el momento del análisis remiten en su mayor parte a la web general del programa y, en menor medida, a textos breves sobre la noticia en cuestión, a veces con fotografía.

AGRADECIMIENTOS

La estructura de texto escrito acompañando un pantallazo del programa en el momento del tuit, es la estructura prototípica de los tuits publicados por LMC. No obstante, cuando el tuit incluye vídeo con fragmentos del programa (normalmente entrevistas), este se mantiene activo. Vemos, pues, que los dos programas de las cadenas privadas conciben de modo diferente el uso de twitter: en ARV parece ser un uso dirigido a los seguidores que no están viendo el programa en televisión y solo lo siguen por la red: les enlazan a fragmentos de la emisión que dejan de estar activos después del programa. Por el contrario, el uso de LMC es más perdurable; se entretiene, además, en recortar un pantallazo y en redactar un breve texto para gran parte de los tuits. Entre los comentarios de los seguidores predominan los mensajes con intencionalidad expresiva, de ataque y denuncia (ataque a los políticos, a los periodistas, con frecuencia al propio programa), por encima de los tuits que comentan la información con intención básica representativa (opiniones e informaciones). A la espera de realizar el análisis cualitativo detallado, cabe decir que el nivel argumentativo (y el nivel gramatical) es claramente mínimo, lo que se corresponde con la superficialidad propia de las redes, condicionada por la [18,19]. La participación es sobre todo, de difusión-diseminación de los mensajes (retuits), los comentarios raras veces reflejan diálogo entre varios seguidores, y cuando dialogan apenas hay contenido. A este respecto destaca un tipo de tuit que hemos clasificado como tenta trasmitir mensajes de retórica ampulosa, casi siempre de valoración negativa hacia el tema en cuestión. A falta de concretar el análisis de las categorías que hemos indicado en los dos corpus, la impresión general es que esa participación es más exhibicionista/monológica que dialógica/interactiva. El hecho de escribir en los muros digitales de las redes no está comunicativamente muy alejado de la escritura de pintadas en las paredes del mundo analógico; lo que cambia es, evidentemente, el alcance, el eco y la viralidad que supone el mundo digital. V.

CONCLUSIONES

La aplicación de un modelo discursivo de base neurolingüística a los mensajes de twitter permite describir las distintas modalidades comunicativas desplegadas en la red social por las cuentas gestionadas por los programas televisivos y por sus seguidores. El análisis de aspectos relativos a los contenidos, la intencionalidad y el alineamiento valorativo/emocional de los tuits, entendidos como indicadores

comunicación en los procesos de

-43960-R)

REFERENCIAS BIBLIOGRÁFICAS [1]

[2] [3]

[4]

[5] [6] [7]

Neurocommunication: Proposal for a review of the theoretical foundations of communication and industrial and social applicati Neurocomunicación: Propuesta para una revision de los fundamentos teóricos de la comunicación y sus aplicaciones industriales , Mediaciones sociales, 1, pp. 355-386, 2007. B. Gallardo Paúls, Political Uses of Language. A paradoxical discourse/ Usos políticos del lenguaje. Un discurso paradójico, Barcelona: Anthropos/Siglo XXI, 2014. e encuadre discursivo en periodismo político: análisis de un corpus de Círculo de Lingüística Aplicada a la Comunicación, 58, pp. 90-109, 2014. campaign coverage: topics in e discursivas en la cobertura electoral: los temas en la campaña europeas P.Lévy, Collective Intelligence: Mankin Cyberspace, Cambridge, Mass.: Perseus Books, 1997. Interactive audiences? The collective intelligence of media fans in D. Harries et al (eds), The new media book, British Film Institute, pp. 157-170, 2002. W.H. Dutton, The fifth estate emerging through the network of networks , Prometheus, 27(1), pp. 1-15, 2009.

[8]

-526, 1978.

[9]

of mind2.12, p. 493-501, 1998 [10] B. R. Smith and E. Leinonen, Clinical Pragmatics. Unravelling the complexities of communicative failure, Londres:Chapman & Hall, 1992. [11] B. Gallardo Paúls, Pragmatics for Speech Therapists / Pragmatica para logopedas, Cádiz, Universidad de Cádiz, 2007. [12] -274, july-september 1958. [13] in Syntax and semantics, Vol. 3: Speech Acts Seminar Press, P. Cole, JL Morgan Eds., New York, 1975, pp. 225 242. [14] M.Castells marzo 2014. [15] L. Ampofo, N. Anstead, and B. O'Loughlin, "Trust, confidence, and credibility: Citizen responses on twitter to opinion polls during the 2010 UK general election.", Information, Communication & Society 14.6 (2011), 850-871, 2011. [16] P. Farhi, American Journalism Review, 31(3), pp. 26-31, 2009. TV political information and spectacle: a [17] comparative analysis of news programs and infotainment Información política televisiva y espectacularización: un análisis comparativo de mensaje periodístico 20 (2), 2014, pp. 821-839. [18] F. Sáez Vacas We need develop a sociolgy Necesitamos desarrollar un TELOS, 76, pp. 51-55, 2008. [19] A. Dubuquoi and N. Prat,Twittus explosif, Éditions Fetjaine, 2013.

CISTI 2015 | 239

El uso de redes sociales entre los jóvenes extranjeros que viajan a Galicia y sus implicaciones en el ámbito turístico The use of social networks between the young foreigners who travel to Galicia and its implications in the tourist ambience Profa. Dra. Ana Belén Fernández Souto, Profa. Dra. Montse Vázquez Gestal, Prof. Dr. Jesús Laxe Campus de Pontevedra, Rede de investigación TURINCENTIVING GALICIA Universidade de Vigo Pontevedra, España [email protected], [email protected], [email protected] En este documento daremos a conocer las principales Resumen conclusiones a las que se ha llegado tras entrevistar a estudiantes Erasmus y auxiliares de conversación que han viajado a España y conocido Galicia en 2014. El objetivo del estudio ha sido analizar el uso que han hecho de las redes sociales durante su estancia en España, así conocer los objetivos que buscaban a la hora de consumir este tipo de soportes, especialmente en lo que se refiere a entrar en contacto con personas en su misma situación y en el consumo de redes sociales para buscar información turística.. Palabras Clave España.

redes sociales; turismo; jóvenes; Galicia;

Abstract In this document we will announce the main conclusions to which it has gone over after interviewing students Erasmus and assistants of conversation who have traveled to Spain and known Galicia in 2014. The target of the study has been to analyze the use that they have made of the social networks during its stay in Spain, this way to know the targets for that they were looking at the time of consuming this type of supports, especially as for contacting persons in the same situation and in the consumption of social networks to look for tourist information. Keywords Social Networks; tourism; young people; Galicia; Spain.

I.

INTRODUCCIÓN

La presente investigación es un extracto de un estudio más amplio desarrollado desde la Rede de Investigación Turincentiving Galicia (R 2014/020, de la Xunta de Galicia). El objetivo de Turincentiving Galicia es identificar los recursos turísticos que esta región posee y que pueden resultar de interés para los públicos norteamericanos dentro de la categoría que presentamos a continuación, se centra en el análisis del uso de la redes sociales por parte de los jóvenes visitantes extranjeros que llegan a España y Galicia. Para ello, hemos

realizado entrevistas en profundidad a más de 30 estudiantes Erasmus y Auxiliares de Conversación que han estado en España y/o Galicia en 2014 y les hemos preguntado por el uso que han realizado de las distintas redes sociales durante su permanencia en nuestro país. II.

METODOLOGÍA

Durante el primer momento de la investigación, hemos realizado un vaciado bibliográfico para recopilar referencias en dos vías: -

Sobre redes sociales y su consumo entre los jóvenes.

-

Sobre turismo, turismo de incentivos y las nuevas tecnologías aplicadas al turismo.

En base a estos datos, hemos realizado la parte más teórica del estudio que ha servido de marco general para la investigación que hemos desarrollado. Respecto al trabajo de campo, tal y como hemos adelantado, para obtener los datos del estudio que estamos presentando hemos realizado 34 entrevistas en profundidad a jóvenes extranjeros que han visitado España y/o Galicia durante al año 2014. En este sentido, el público objetivo al que nos hemos dirigido han sido: a) Estudiantes Erasmus, es decir, estudiantes universitarios extranjeros que han cursado estudios reglados en las universidades españolas, al menos durante un semestre; b) Auxiliares de conversación, jóvenes nativos que han viajado a España/Galicia como profesores ayudantes para los centros de Educación Primaria y Secundaria, al menos, durante un curso académico. Se trata, por tanto, de jóvenes con edades comprendidas entre los 19 y los 27 años, originarios de otros países que han vivido en suelo español durante más de seis meses y que han utilizado las redes sociales para localizar a personas en su misma situación, planificar actividades conjuntas y buscar

CISTI 2015 | 240

información turística referentes a posibles destinos a visitar durante su estancia.

y negocian los significados de todo tipo de situaciones, objetos, servicios o experiencias.

Las entrevistas han sido realizadas por videoconferencia, dado que muchos de los sujetos entrevistados ya no estaban en territorio español. Durante la misma, se ha preguntado por:

Transformación social y cultural donde las redes sociales como espacios de comunicación digital, permiten desarrollar sus propósitos personales, no sólo para buscar de forma egoísta su bienestar, sino también hacia valores, ideas y actitudes compartidas, u acciones solidarias, lo que Castells (2012: 220) denomina individuación. Cuando el proyecto personal se identifica con un grupo o colectivo puede hacer que el individuo a través de las redes configure, junto con los otros semejantes, su autonomía de las organizaciones e instituciones tradicionales, de la definición de intereses y normas en las que no ha participado, haciéndole sentir dice

-

Datos de identificación, incluyendo el país de procedencia.

-

Datos sobre su conocimiento de España previo a su estancia.

-

Datos sobre su conocimiento de España y Galicia durante su estancia.

-

Datos sobre su uso de redes sociales durante su estancia en España.

A partir de estos datos, hemos cruzado variables y realizado una serie de gráficos que permitirán visualizar mejor las conclusiones a las que hemos llegado. III.

EL CAMBIO CULTURAL Y LAS REDES SOCIALES

El cambio social institucionalizado como rasgo de la modernidad, de su sistema de producción y consumo, de una economía de mercado, de su cultura, ha experimentado un enorme impulso de la mano de las tecnologías para la información y la comunicación (las TICs). En los últimos cinco lustros, estas tecnologías se han incorporado rápidamente a todas las esferas de la actividad humana. Internet, la telefonía móvil, y la digitalización, han hecho posible el surgimiento de lo que Manuel Castells (2012: 24) llama la autocomunicación de masas, una comunicación que es autónoma en la emisión y recepción de mensajes, y de En los años más recientes el protagonismo de esta autocomunicación de masas corresponde a las redes sociales, asentadas sobre la base de un creciente número de usuarios de internet y de la expansión meteórica de la telefonía móvil. El uso y la proliferación de las redes sociales se sustentan sobre la accesibilidad a las TICs (a modo orientativo, destacaremos que en España el INE constata la creciente utilización de los smartphones para conectarse a internet; y una mayoritaria participación en redes sociales como Facebook , Twitter o Tuenti -un 67,1% de los usuarios de Internet, el 51,1% de la población de 16 a 74 años-,una participación que alcanza a 9 de cada 10 jóvenes de 16 a 24 años -91,3%-, y un poco más a las mujeres -68,9%- que a los hombres -65,3%-) , sin embargo, es la cultura la que facilita la asimilación y su incorporación a la vida cotidiana, y en donde reside el fulminante éxito de las redes sociales. Las redes sociales permiten comunicar, poner en relación, a emisores y receptores que emplean códigos compartidos, constantemente negociados y fluctuantes, adaptados a particulares intereses comunes. Las redes sociales forman parte de estilos de vida donde usos y contenidos compartidos se entienden como manifestaciones de pertenencia a comunidades de usuarios con intereses, valores, estatus, o identidades parecidas. A través de los mensajes, se comunican

IV.

JÓVENES Y REDES SOCIALES

Las redes sociales se han universalizado y los jóvenes las han incorporado plenamente en sus vidas. Según indica Gómez, Roses y Farias (2012) se han convertido en un espacio idóneo para intercambiar información y conocimiento de una forma rápida, sencilla y cómoda. Las Redes Sociales forman parte ya de los hábitos de consumo de nuestros jóvenes, siendo sus principales utilidades las siguientes (Caldevilla: 2010): El mantenimiento de amistades, la nueva creación de amistades, el entretenimiento y la gestión interna de organizaciones empresariales. En esta clasificación coinciden Colás-Bravo & Otros (2013) Motivaciones y usos los jóvenes se conectan a una red social los siguientes: para hacer amigos nuevos, me hacer sentir bien cuando estoy triste, me gusta saber que gusto, me gusta saber lo que dicen mis amigos, puedo ser más sincero/a con mis amigos, la red me da posibilidad de explorar, las redes sociales son un tipo de vida o para compartir experiencias, siendo este motivo el más importante. Tanto unos autores como otros, se reafirman en los datos obtenidos de investigaciones internacionales, donde los jóvenes hacen un uso extensivo de las tecnologías 2.0 destinado fundamentalmente a relacionarse con sus iguales y a canalizar la expresión de sus opiniones. El consumo de redes sociales es más que una realidad y así lo demuestran los datos de usuarios de las principales redes (http://www.concepto05.com/2013/07/estadisticas-usuariosredes-sociales-en-espana-2013/), donde según datos del año 2013, Facebook, superaba los 800 millones de usuarios, Twitter le seguía en torno a los 200 millones y -Tuenti, rondaba los 14 millones. Los datos de 2014 (http://tcanalysis.com/blog/posts/thecocktail-analysis-y-arena-publican-la-vi-ola-del-observatoriode-redes-sociales) avanzan en WhatsApp supera a Facebook en volumen de internautas con cuenta activa; Twitter parece estancarse en favor de Instagram, LinkedIn o Pinterest. Los datos recopilados en estos últimos apartados, sirven de marco para la investigación que presentamos, pues abordan la

CISTI 2015 | 241

importancia que las redes sociales tienen en nuestra sociedad así como el uso que de ellas hacen sus internautas, especialmente de edades jóvenes. V.

LOS RESULTADOS DE LA INVESTIGACIÓN

A. Del perfil de los entrevistados y su visión turística de España El perfil de los entrevistados viene determinado, tal y como indicábamos con anterioridad, por su condición de estudiante Erasmus o de Auxiliar de conversación en España durante el último curso académico. Su procedencia es variada, aunque destacamos el hecho de que la mayor parte de los auxiliares de conversación entrevistados proceden de Estados Unidos, mientras que la mayor parte de los estudiantes Erasmus provienen de centro-Europa: Alemania, Austria, Holanda, Francia

Procedencia EEUU Alemania Portugal Irlanda Figure 1: País de origen de los entrevistados

En general, conocían España antes de su viaje de estudios o trabajo (el 82.14% de los entrevistados) y contaban con una imagen del país y sus habitantes bastante positiva (78% de los entrevistados afirmaban tener una imagen positiva frente al 17.8% que cuentan con una imagen neutra de España y los españoles). Respecto a las regiones españolas que habían visitado previamente a su estancia destacamos las siguientes:

Regiones visitadas Madrid Cataluña

B. Los entrevistados y el uso de redes sociales Siguiendo con el desglose de los datos aportados por las entrevistas realizadas, abordaremos a continuación el uso que los encuestados manifiestan haber hecho durante su estancia respecto a las redes sociales. La gran mayoría confiesan haber utilizado las redes sociales durante su estancia, un 90% y éstas han sido utilizadas en dos vías: 1) Para relacionarse con otras personas en su misma situación. La gran mayoría de los entrevistados confiesan ser asiduos de las redes sociales y, en el caso concreto de su estancia en España, de haberlas utilizado fundamentalmente para mantener el contacto con sus amistades en el país de origen y para entrar en contacto con nuevas amistades, sitas en España, en una situación similar (auxiliares de conversación o estudiantes Erasmus). En este sentido, destacaremos la gran abundancia de perfiles sociales que incluyen ambas nomenclaturas, a saber: auxiliares de conversa, Erasmus España,; Erasmus Pontevedra, Auxiliares de conversación, Erasmus 2013-2014, etc. 2) Para realizar búsquedas turísticas. Muy relacionado con el aspecto anterior, los entrevistados confiesan haber utilizado las redes sociales para buscar información turística (el 78%) ,pero sobre todo para realizar viajes en grupo a determinados destinos. En este sentido, es en los propios foros que mencionábamos antes donde asiduamente se agrupan y proponen viajes para realizar en grupo. Finalmente, también se les pregunta por las redes sociales que más consultaron durante su estancia, ofreciéndoles varias opciones: Facebook, Tuitter, Tuenti, Instagram y Youtube. La práctica totalidad de los entrevistados, el 96% se decantaron por Facebook, dato este que viene abalado por otro tipo de estudios, como el presentado por IAB Spain Research (http://www.iabspain.net/wpcontent/uploads/downloads/2014/04/V-Estudio-Anual-deRedes-Sociales-versi%C3%B3n-reducida.pdf) en el que se recoge que la principal Red Social para los consumidores españoles es Facebook, siendo sus principales usuarios los jóvenes de entre 18 y 30 años.

Galicia

VI.

Figure 2: Regiones visitadas en España

Como era previsible, las principales regiones españolas receptoras de turismo extranjero con las grandes urbes (Madrid con un 53%) y Barcelona (60%), seguida de Andalucía (42,%) y las Islas, tanto Baleares como Canarias (32%). Finalmente, dentro de este epígrafe, destacaremos el hecho de que tras su estancia en España, la percepción que manifestaban sobre el país y sus habitantes, no cambió en la mayor parte de los entrevistados (el 64% de los encuestados afirman que no ha cambiado con respecto a la opinión que tenían antes de su viaje).

CONCLUSIONES

Tal y como hemos analizado en el epígrafe anterior, parece claro que los sujetos entrevistados se rigen por un mismo perfil: jóvenes extranjeros (entre 19 y 27 años) que han viajado a España y establecido su residencia aquí, al menos, durante seis meses, mientras ejercían su ejercicio profesional como Auxiliares de Conversación o como estudiantes Erasmus. Vemos que la práctica totalidad de los entrevistados han sido usuarios de las redes sociales durante su estancia en España y que las han utilizado en dos vertientes: en primer lugar, para entablar contacto con personas que estén en su misma situación (función social) y, en segundo lugar, para recabar y compartir información turística (función informativa).

CISTI 2015 | 242

Igualmente, destacaremos que la práctica totalidad de los entrevistados se han decantado por la red social Facebook, frente al resto. Esta información es fácilmente contrastable con la gran cantidad de perfiles que la red ofrece bajo títulos como , etc. Para finalizar, y en lo que se refiere a la información turística, comprobamos que la mayor parte de los entrevistados habían viajado con anterioridad a España, teniendo una imagen positiva del país y sus ciudadanos. Las regiones más visitadas fueron las que cuentan con un mayor índice de turismo internacional (Madrid, Cataluña, Andalucía, Baleares y Canarias), siendo el resto de comunidades autónomas, segundarias como destino turístico. AGRADECIMIENTOS El presente estudio se enmarca en la Red de Investigación Turincentiving Galicia (R2014/020) de la Xunta de Galicia. REFERÊNCIAS BIBLIOGRÁFICAS [1] [2] [3]

Blaudt Rangel, B, (2011), in Revista de la Red de Expertos Iberoamericanos en Turismo, Fundación CEDDET. Documentación de las Ciencias de la Información, VOL. 33. Castells, Manuel (2012). Redes de indignación y esperanza. Los movimientos sociales en la era de internet. Madrid: Alianza Editorial.

[4] 40, http://dx.doi.org/10.2916/C40-2013-02-01.

Revista Comunicar,

[5]

Da Silva, SB; Viegas, NM; Caiado, LA, (2012),

Tourism & Management Studies. Estadísticas usuarios redes sociales en España. (2013). http://www.concepto05.com/2013/07/estadisticas-usuarios-redessociales-en-espana-2013/. Consultado el 30 de enero de 2015. [7] Estudio annual de las Redes Sociales, http://www.iabspain.net (Consultado el 30 de enero de 2015) [8] Gómez, M; Roses, S; Farias, P, (2012), émico de las redes Revista Comunicar, DOI: 10.3916/C282011-03-04 [9] INE (2014). Encuesta sobre equipamientos y uso de tecnologías de información y comunicación en los hogares. Nota de Prensa. Disponible en http://www.ine.es/prensa/np864.pdf [10] Hjalager, AM, (2010), Tourism Management, 31. 1,. [11] Mc MICE developmen in Macao, (2014) in J. Covent, Event Tour, 15, 3. [12] Observatorio de redes sociales, http://tcanalysis.com/blog/posts/thecocktail-analysis-y-arena-publican-la-vi-ola-del-observatorio-de-redessociales, consultado e 30 de enero de 2015. [13] Observatorio Nacional de las telecomunicaciones y de la SI (ONTSI) (2014). La Sociedad en Red. Informe Anual 2013. Madrid: Centro de Publicaciones del Ministerio de Industria, Energía y Turismo. Nipo en línea: 070-14-027-7. Disponible en: http://www.ontsi.red.es/ontsi/sites/default/files/informe_anual_la_socied ad_en_red_2013_ed._2014.pdf [14] Paget, E; Dimanche, F; Mounet, JP; (2010), case: an actorAnn.Tourism Res, 32, 3. [15] Silveira, BC; Da silva; JG; Leite, Y.V; (2009), desenvolvimento do turismo de incentivo na cvidade de Recibein Caderno Virtual de Turismo, 9, 3. [16] Van der Duim, R, (2007), in Ann.Toruism Res, 34, 4. Xiang, Z; Formica, S, (2007), Tourism Management, 28, 5 [6]

CISTI 2015 | 243

La gestión de la Responsabilidad Social Corporativa de los grupos mediáticos a través de las redes sociales The management of Corporate Social Responsibility in media group through social networks Ana María López Cepeda Universidad de Castilla La Mancha [email protected] La Responsabilidad Social Corporativa (RSC) es un Resumo concepto amplio, que configura un nuevo modelo de gestión empresarial transparente y responsable. Los medios de comunicación han contribuido a su expansión pero los propios grupos mediáticos son empresas con una gran influencia en la sociedad. En la actualidad existen numerosos mecanismos de medición de la RSC en las empresas y numerosas herramientas para su comunicación y difusión. La aparición de la web 2.0 ha supuesto un salto cualitativo y el empleo de nuevos medios de autocomunicación de masa por parte de la sociedad. Dentro de este marco, el éxito que están teniendo las redes sociales, potencian nuevas estrategias de gestión, entre las cuales debe encontrarse sin ninguna duda el impulso de la RSC. Este artículo analiza en qué medida las principales empresas de comunicación españolas utilizan las redes sociales (Facebook y Twitter) para informar y potenciar sus estrategias de Responsabilidad Social Corporativa. Palabras clave - RSC; grupos mediáticos; redes sociales. Abstract Corporate Social Responsibility (CSR) is a broad concept, which sets a new model of transparent and accountable management. The media have contributed to its expansion but media groups themselves are companies with a great influence on society. At present, there are numerous mechanisms for measuring CSR in companies and numerous tools for communication and dissemination. The emergence of web 2.0 has meant a qualitative leap and the use of new means of mass self from society. Within this framework, the success they are having social networks, enhance new management strategies, among which must be undoubtedly the impetus for CSR among enterprises, corporations and institutions. This article examines the extent to major Spanish companies use social media networks (Facebook and Twtter) to inform and enhance their CSR strategies. Keywords CSR; media groups; social networks.

I.

INTRODUCCIÓN

La Responsabilidad Social Corporativa (en adelante RSC) se puede definir como un nuevo modelo de gobierno voluntario de las organizaciones y empresas que busca gestionar su actividad de una forma responsable con todos los grupos involucrados a los que se dirige o grupos de interés (stakeholders).

Este concepto está adquiriendo un gran auge entre el sector empresarial. Los valores de transparencia, responsabilidad, ética y rendición de cuentas están teniendo una gran importancia en la economía moderna [1] y también entre los propios medios de comunicación. Éstos abordan la RSC desde una doble perspectiva: informando a la ciudadanía pero también como corporaciones que son. La doble crisis que asola a los medios de comunicación (económica y tecnológica) junto con la pérdida de su credibilidad evidencia cada vez con mayor intensidad la necesidad de que éstos aborden con total amplitud el concepto de responsabilidad social corporativa, sean transparentes y rindan cuentas con la ciudadanía. Las herramientas que tienen las empresas y organizaciones para potenciar su RSC son muy abundantes. La llegada de la web 2.0 como plataforma más participativa y colaborativa para la sociedad ha supuesto el nacimiento de nuevos medios de autocomunicacion de masa [2], como las redes sociales que permiten una integración de la ciudadanía en los procesos de comunicación. Éstas pueden y deberían ser aprovechadas por las empresas para potenciar sus estrategias de RSC, mejorando la gobernanza y gestión corporativa. En este contexto, se aborda esta investigación con la finalidad de conocer en qué medida los principales grupos de comunicación en España utilizan las redes sociales para informar de su RSC y para potenciar campañas en pro de la misma. II.

METODOLOGIA

El análisis de la implantación de la Responsabilidad Social Corporativa en los medios de comunicación presenta cada vez un mayor desarrollo. Los grupos de comunicación como empresas que son tienen que desarrollar campañas de RSC para una mayor transparencia y eficiencia gestora. Las principales empresas mediáticas tienen redes sociales en las que se comunican con sus usuarios para informar sobre sus contenidos y entretener. Sin embargo, el objeto de estudio de la presente investigación no es este tipo de comunicación, sino la relativa a la Responsabilidad Social Corporativa. En

CISTI 2015 | 244

concreto, el objeto de este artículo es realizar un análisis de contenido de la información sobre RSC que los grupos de comunicación españoles realizan a través de las dos principales redes sociales en España (Facebook y Twitter)1. En primer lugar, fueron analizados los perfiles que las empresas de comunicación tienen específicamente sobre Responsabilidad Social Corporativa en estas dos redes sociales y contabilizados el número de Tweets, Seguidores, Siguiendo y Favoritos en Twitter y Me gusta en las cuentas de Facebook. Una vez contabilizados estos se procedió a comprobar el tipo de información sobre RSC que contenían los perfiles corporativos de las empresas mediáticas durante el mes de octubre de 2014 a través de la metodología de Ramírez Lozano [9] adaptada a este estudio: -

Contenidos informativos y de entretenimiento. Información sobre políticas empresariales y de Responsabilidad Social: transparencia y buen gobierno corporativo. Campañas de Responsabilidad Social: campañas de concienciación.

Por último, cabe matizar que se eligieron para el análisis las principales compañías mediáticas en España (y no los medios que los conforman) siguiendo la clasificación de Ramón Reig en 2011 [3], actualizada en el momento de la investigación (2015): Grupo Prisa, Unidad Editorial, Vocento, Grupo Planeta, Telefónica, Grupo Zeta, Grupo Godó, Editorial Prensa Ibérica, Grupo Mediapro, Grupo RTVE, Grupo Voz, Grupo Joly, Grupo Atresmedia, Grupo Promecal y Grupo Intereconomía. Se decidió analizar también el Grupo Mediaset (a través de Mediaset España Comunicación) dado que a pesar de tener origen italiano es una de las sociedades dominantes en el duopolio televisivo existente en España junto con Atresmedia [4], [5]. III.

CONCEPTO Y EVOLUCIÓN DE RESPONSABILIDAD SOCIAL 2 CORPORATIVA EN LOS MEDIOS DE COMUNICACIÓN SOCIAL

A. Concepto La Responsabilidad Social Corporativa abarca diversas dimensiones en el gobierno de las empresas y organizaciones. Se habla de la triple cuenta de resultados o triple bottom line (responsabilidad social, económica y meidoambiental) como los tres pilares de la RSC. Ésta se plantea como un nuevo modelo de gobernanza asumido de forma voluntaria por las organizaciones y empresas con el objetivo de dirigir su actividad partiendo de la idea de que éstas no son sólo responsables ante sus accionistas sino que deben ampliar su

ámbito de intereses a diversos grupos de interés (stakeholders) afectados por los objetivos de la organización [6]. Los medios de comunicación han contribuido a la expansión del concepto de RSC. Sin embargo, no hay que olvidar que ellos mismos son corporaciones que además juegan un especial papel en la sociedad, creadores de opinión pública. A este respecto destacan el Informe Hutchin (1947) [7] y el Informe Mc Bride (1980) [8] como conexiones entre medios de comunicación, transparencia y responsabilidad social. El incremento de los últimos años de la preocupación de los medios de comunicación por la Responsabilidad Social Corporativa es latente y se evidencia por el crecimiento de memorias e informes de Responsabilidad Social Corporativa publicadas por éstos. Se ha incrementado la literatura científica sobre ésta [9], [10], [1], de forma paralela a que los grupos de comunicación empiezan a mostrar directa con actividades socialmente responsables sin ánimo de lucro: compromiso social, fomento de la cultura, apoyo a los [4]. Lo cierto es que se podría hablar de dos dimensiones de la RSC en los medios de comunicación: 1) Como empresas que son deben implicarse con la sociedad; y 2) Como medios transmisores de información y cultura deben hacerlo de una forma veraz y transparente dentro de las éticas y deontologías profesionales. B. Evolución El auge del concepto de RSC, tal y como lo entendemos en la actualidad es bastante reciente. En la década de los años 90 la literatura científica comienza a analizar los beneficios de ésta para las empresas en general [11], [12]. Es a partir de entonces cuando varias organizaciones internacionales, como la ONU, OECD, OIT o la Unión Europea, se aúnan en este esfuerzo. Esta creciente preocupación por la RSC ha originado el nacimiento de una gran pluralidad de normas y principios (SA 8000, AA 1000, ISO 14001, Global Reporting Initiative, Oshas 18000, SGE21, PNE 165010, ISO 26000, entre otros) que señalan pautas voluntarias para la implantación de ésta en las organizaciones. La evolución de la RSC también se ha vislumbrado en los medios de comunicación. Si bien es cierto que en un principio ésta se reflejaba solo como parte de sus agendas settings, se ha trasladado con el paso del tiempo a ser preocupación de su gestión corporativa, si bien de forma más tardía que en otros sectores.

1 Es cierto que en España la red Tuenti tiene una mayor acogida que Twitter pero se decidió prescindir de ésta por su carácter claramente juvenil no relacionado con la gestión corporativa de las empresas. 2 Para un análisis en profundidad de la RSC en los medios de comunicación, en especial de titularidad pública ver López Cepeda (2015) [19].

CISTI 2015 | 245

TABLA 1. MEMORIAS DE RSC EN GRI

Todos los sectores

Total África Asia Europa Latinoamérica Norteamérica Oceanía

Total 1999 2014 19.952 1.434 4.097 8.149 2.421 2.885 973

2013 4063 317 935 1.452 567 612 180

Fuente. López Cepeda (2015) [19].

Medios de comunicación Total 2013 19992014 235 46 28 5 11 4 131 21 27 7 38 9 0 0

IV. LA RESPONSABILIDAD SOCIAL CORPORATIVA Y LAS REDES SOCIALES El análisis y potenciación del concepto de RSC 1.0 ha conseguido importantes avances. Sin embargo, en los últimos años surge la denominada RSC 2.0 con la finalidad de pasar de comunicar a gestionar. Se impone la necesidad de dar el salto cualitativo y saltar desde una gestión vertical a una apertura a una RSC que permita reducir costes y riesgos, mejorar las relaciones laborales e impactar a los potenciales clientes y a la sociedad [13]. Este nuevo concepto de RSC 2.0 ha crecido de forma casi paralela al de web 2.0, término acuñado por Tim O´Really en 2004. Éste comprende que la web deje de ser unidireccional para fomentar la participación, interoperabilidad y la colaboración en la Wold Wide Web. Para ello se sirve de herramientas muy diversas entre las que se encuentran las redes sociales, identificadas como instrumentos idóneos para facilitar un sistema de comunicación interactivo que permita multiplicar la relación y circulación de los mensajes. El crecimiento del número de usuarios de internet es una realidad año a año. El uso de las redes sociales también ha experimentado un incremento notable, auge potenciado por el uso de las plataformas móviles. Según Comscore (2013) [14], las redes sociales preferidas por los españoles son Facebook, Tuenti y Twitter. Según estos datos, Facebook tenía 17 millones de usuarios únicos en España en diciembre de 2012. La segunda red social más utilizada en España, Tuenti, con un perfil muy juvenil ha perdido sin embargo usuarios a diferencia de la tendencia de Twitter con 5,6 millones de usuarios en la misma fecha. Estas nuevas plataformas se definen como sistemas de comunicación masivos encuadrados en el marco de la web 2.0 que permiten la multiplicación de mensajes, relaciones e impactos a partir del desarrollo de las herramientas de comunicación [15]. La situación ha generado que la sociedad diluida, convergente, transparente, flexible, liviana, conversacional, interconectada y abocada a la colaboración, [16].

V. LA RSC EN LOS GRUPOS DE COMUNICACIÓN Todos los grupos de comunicación analizados disponen de páginas web y la mayoría tiene cuentas en redes sociales. Sin embargo y frente a lo que cabría esperar no todas las empresas mediáticas publican información de RSC en sus webs corporativas. Solo el 31,25% contiene informes de RSC así como noticias e información sobre sus campañas o relaciones con stakeholders. En cuanto a las redes sociales, son principalmente tres grupos mediáticos los que poseen un perfil propio y exclusivo sobre Responsabilidad Social Corporativa en Facebook y Twitter: Telefónica, Atresmedia y Mediaset, Destaca que son las empresas audiovisuales las dominantes en este aspecto, inmersas a su vez en un fuerte oligopolio y competencia continua por las audiencias. Tanto Telefónica como Mediaset, a través de su campaña , ofrecen sus actuaciones con un perfil de RSC genérico en las dos redes sociales analizadas. Por su parte, Atresmedia tiene una cuenta para cada una de sus campañas de concienciación. TABLA 2. GESTIÓN DE CAMPAÑAS DE RSC EN FACEBOOK Y TWITTER Grupos de com Telefónica

Campañas

Tweet

Twitter Sigu Seg

Genérico 19,3K 8.945 Ponle 2.236 107 Freno El Estirón 1.100 135 Hazte Eco 731 99 Atresmedia Fundación 1.868 652 Atresmedia Objetivo Bienestar 0 0 Mediaset Genérico 6.071 314 Fuente. Elaboración propia, febrero de 2015

12,2K 16,4 K 7.913 5.159 11,8K

1.131 40

Faceb Me gusta 861 280.612

19 8 269

6792 5982 2931

0 9.284

0 493

Fav

24171 20683

En general el tráfico es suficiente en ambas redes sociales con un gran número de seguidores en Twitter y Facebook. Ello puede suponer que la sociedad demanda este tipo de actuaciones y que la interconexión entre redes sociales favorece su conocimiento y accesibilidad. En segundo lugar, se analizó el perfil corporativo de las empresas de comunicación en España, objeto de estudio, en estas dos redes sociales (Facebook y Twitter) con el objetivo de conocer el uso que se hace de éstos para informar sobre RSC y permitir un análisis comparativo con los datos ofrecidos en la Tabla 2. El análisis realizado durante el mes de octubre de 2014, ofrece una pequeña mejoría con respecto a los datos anteriores, pero no la suficiente. 1. Contenidos informativos y de entretenimiento: Solo el 37,5% de las empresas de comunicación en España utiliza el perfil corporativo de Facebook para publicar información de actualidad y entretenimiento, mientras que un porcentaje mayor pero no suficiente (56,25%) lo hace en

CISTI 2015 | 246

Twitter. El resto de las empresas de comunicación analizadas no hacen uso apenas de sus cuentas corporativas en estas dos redes sociales. [17].

Incluso se puede afirmar que hay un porcentaje muy elevado de empresas mediáticas que disponen de perfil corporativo pero que apenas introducen entradas de forma periódica.

2. Información sobre políticas empresariales y de Responsabilidad Social: transparencia y buen gobierno corporativo.

El análisis evidencia que tres de las empresas analizadas tienen un perfil exclusivo de Responsabilidad Social Corporativa. La acogida por los usuarios, potenciales grupos de interés, es muy óptima. Al analizar en profundidad estos tres perfiles concretos sobre RSC (Telefónica, Atresmedia y Mediaset) en las redes sociales se evidencia que la mayoría se centra en campañas de concienciación social o medioambiental (igualdad, violencia de género, salud, medioambiente y protección de la infancia). Según GRI [18] las campañas de sensibilización son solo una pequeña parte de la RSC empresarial. Quizás sea una de las más visibles y de ahí su potenciación y visibilidad por algunos grupos empresariales.

El análisis de la información corporativa en Facebook y Twitter evidencia desajustes. Solamente el 18,75% utilizan el perfil corporativo en Facebook para publicar informaciones relativas a la transparencia, gestión, dirección e información corporativa. La situación en Twitter es más óptima pero aún hay importantes hándicaps. En este caso solo el 43,75% de los grupos de comunicación en España utilizan la red profesional para publicar información corporativa [17]. 3. Campañas de Responsabilidad Social: campañas de concienciación. En cuanto a éstas, los resultados son similares al del análisis de la información corporativa. Estos rasgos estarían potenciados en el caso de Telefónica, Mediaset y AtresMedia que disponen de perfiles en Facebook y Twitter propiamente sobre RSC (ver tabla 2). Estas cuentas sobre RSC son utilizadas por las tres compañías como complemento a la información ofrecida a través de sus perfiles corporativos. Sin embargo, un análisis en mayor profundidad evidencia que Atresmedia apenas publica entradas en el perfil corporativo de estas dos redes sociales en el mes de estudio (octubre de 2014). Por su parte, Telefónica sí lo hace en el perfil corporativo de Twitter pero no en el de Facebook. V. CONCLUSIONES La preocupación que las empresas muestran por la Responsabilidad Social Corporativa es evidente. Los medios de comunicación de masas han contribuido a la expansión y análisis de este concepto, pero es necesario que ellos mismos desarrollen políticas a favor de implementar y mejorar su responsabilidad social. En este escenario, aparecen la web 2.0 y sus herramientas que han supuesto un cambio en la manera de entender la comunicación y la relación del poder económico con la sociedad. Prácticamente todos los grandes grupos de comunicación españoles disponen de un perfil en las redes sociales dominantes. La tendencia es similar a la de las empresas del IBEX 35 si bien se evidencian diferencias notables en las preferencias de unas redes por otras. El uso, sin embargo, que hacen de ellas los grupos mediáticos no siempre es el adecuado en cuanto a transparencia y RSC [17]. Los conglomerados mediáticos en general prefieren el uso de Twitter sobre el de Facebook y ofrecen más información de entretenimiento y noticias de actualidad que sobre transparencia, perfil corporativo y campañas de concienciación social, medioambiental y/o empresarial.

Por el contrario, es necesario señalar que el grupo Telefónica sí que utiliza los perfiles de Facebook y Twitter sobre RSC para además de sensibilizar a la sociedad sobre determinados problemas, publicar informes, códigos, noticias e información corporativa. El reto en la actualidad pasa por dar el salto cualitativo desde la RSC 1.0 a la RSC 2.0. En este escenario, sin embargo, parece que los grandes grupos de comunicación se están quedando atrás. El número de noticias sobre RSC empresarial en sus agendas settings se ha incrementado pero, sin embargo, los propios medios no quieren hacerse eco de su propia situación como conglomerados con una importante influencia en la sociedad. Sería conveniente potenciar el uso de las redes sociales para publicar noticias corporativas, campañas de concienciación social, códigos de conducta, relación con stakeholders y todo tipo de información relacionada con su responsabilidad social. AGRADECIMIENTOS Este artículo fue desarrollado como parte de las actividades de la Red Internacional de Investigación de Gestión de la Comunicación (R2014/026 XESCOM) apoyada por la Consellería de Cultura, Educación y Ordenación Universitaria da Xunta de Galicia.

REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3] [4] [5]

Campos, Francisco,

Revista de Comunicación, nº 12, 2013, pp. 32-58. Castells, Manuel, n la sociedad red (I). Los medios y la política TELOS: Cuadernos de comunicación e innovación, 74,2008 , pp. 13-24. Reig, Ramón, Los dueños del periodismo: Claves de la estructura mediática y mundial y de España. Barcelona: Gedisa, 2011. García -397, 2013. García Santamaría; plataformas televisivas en España y su influencia en el

CISTI 2015 | 247

me Revista Latina de Comunicación Social, 69, 2014, pp. 390 a 417. [6] Freeman R. Edward, Strategic management: a stakeholder approach. Boston: Pitman, 1984. [7] Hutchins, Robert Maynard, Commission on Freedom of the Press: A Free and Responsible Press [Prólogo]. Chicago: University of Chicago Press, 1947. [8] McBride, Sean, Un solo mundo, voces múltiples, comunicación e información en nuestro tiempo. París: UNESCO, 1980. [9] Ramírez, Julianna, comunicación: ¿utopía o realidad? Algunos pasos a tomar en cuenta para Correspondencias y Análisis, nº 2, 2012, pp. 99-109. [10] Fernández, Tania, Fonseca Journal of Communication, nº 6, 2013, pp. 86-110. [11] Waddock, Sandra A. y Graves, Samuel B., performance-fin Strategic Management Journal, nº 18(4),1997, pp. 303-319. [12] Werther, William y Chandler, David, Business Horizons, nº 48(4), 2005, pp. 317-324.

[13] Pinillos, Albe

2009. [14] Comscore, Spain Digital Future in Focus, 2013. Recuperado el 04 de febrero de 2015, de http://www.comscore.com/ [15] López Cepeda, Ana M, Comunicación, Cultura e Esferas de Poder. Libro de actas de XIII Congreso Internacional IBERCOM. Santiago de Compostela: Assibercom, Ibercom, 2013, pp. 3309-3316. [16] Campos, Francisco, Comunicación Social, 63, 2008, pp. 287-293. [17]

mación corporativa de los

Actas VI Congreso Revista Latina de Comunicación Social, Universidad de La Laguna, 2014. [18] Global Reporting Initiative Guía para la elaboración de memorias de sostenibilidad y suplemento sectorial para medios, 2000-2012. La responsabilidad social corporativa en las [19] radios televisiones públicas en España -LOC, Castellón, 2015.

CISTI 2015 | 248

Competencias mediáticas en el alumnado en la ciudad de Loja (Ecuador) Media literacy in students in the city of Loja (Ecuador) Isidro Marín

Diana Rivera

Departamento de Ciencias de la Comunicación, Universidad Técnica Particular de Loja, Loja, Ecuador [email protected]

Departamento de Ciencias de la Comunicación, Universidad Técnica Particular de Loja, Loja, Ecuador [email protected]

Andrea Velásquez

Departamento de Ciencias de la Comunicación, Universidad Técnica Particular de Loja, Loja, Ecuador [email protected] Esta investigación comprende el estudio de las Resumen competencias mediáticas audiovisuales. Se trabajó con una muestra de 23 colegios de la ciudad de Loja, con una población de 1.150 estudiantes de entre décimo año de educación básica a tercer año de bachillerato. Con el objetivo de analizar y diagnosticar el nivel de competencia mediática audiovisual en jóvenes (14 a 18 años) de los colegios públicos, privados y fiscomisionales o concertados. Por otro lado es importante profundizar y dar a conocer esta investigación, para que se incluyan en los pensum académicos materias referentes a la comunicación y la nueva era en la que estamos atravesando. El mundo está en constante cambio y es necesario que los jóvenes sepan usar las nuevas herramientas de forma correcta y a la vez entender y analizar la información que es transmitida por estos sitios. En esta investigación nos centraremos en dos dimensiones específicas de las competencias mediáticas como son la producción y la difusión e ideología y valores. Palabras Clave Medios digitales; competencias mediáticas; educación mediática; alfabetización digital y consumo cultural. Abstract This research includes the study of audiovisual media literacy. We worked with a sample of 23 schools in the city of Loja, with a population of 1,150 students between the tenth year of basic a third year high school education. In order to analyze and diagnose the level of audiovisual media competence in young (14-18 years) of public, private and fiscomisionales schools. On the other hand it is important to deepen and disseminate this research, to be included in the academic curriculum matters relating to communication and the new era we are experiencing. The world is constantly changing and it is necessary that young people know how to use the new tools properly and also understand and analyze the information that is transmitted by these sites. In this research we focus on two specific dimensions of media literacy as production and dissemination and ideology and values. Keywords - Digital media; media literacy; media literacy; digital literacy and cultural consumption.

I. INTRODUCCIÓN Las redes sociales son parte del diario vivir de una gran parte de la población mundial, las dos primeras décadas del siglo XXI han estado marcadas por el auge de la Web 2.0. Esta tecnología ha cambiado la forma como aprendemos, cómo nos relacionamos y cómo nos comunicamos. Con la aparición de las nuevas tecnologías, la sociedad actual atraviesa por otro reto más que es el de involucrarse con estas herramientas y capacitarse para darles un uso adecuado. Con esto se pretende buscar recursos, propuestas, investigaciones, iniciativas relacionadas con la Educación Mediática, mismas que permitan la participación activa de todos los ciudadanos. Es por eso que la Educación Mediática se constituye como un valor en alza para conseguir este objetivo, impulsada por el compromiso de organismos internacionales como la ONU, la UNESCO, el Parlamento Europeo o el Consejo de Europa. Nos encontramos, sin duda, en un momento crucial para lograr una formación integral de los ciudadanos, aprovechando todos los recursos disponibles y la implicación de los diferentes agentes sociales: profesorado, alumnado, familias, profesionales de los medios, líderes educativos y responsables políticos. Las competencias mediáticas audiovisuales constituyen un tema nuevo e importante dentro de la sociedad actual, por lo que es necesario que los estudiantes lo conozcan, es por ello que esta investigación está direccionada, para conocer cuál es el nivel de competencias mediáticas en el alumnado con el fin de diagnosticar si están preparados eficazmente para esta nueva generación de producción y consumo de contenidos [1]. Actualmente la sociedad se encuentra en un constante cambio, en cuanto a nuevas tecnologías las cuales han transformado la manera de comunicar y educar. La expansión rápida de las Tecnologías de la Información y de la Comunicación (TICs) por todo el mundo ha hecho que las

CISTI 2015 | 249

personas se relacionen con estas herramientas mucho más, exigiendo de las personas ciertas capacidades y habilidades para desarrollar competencias.

los medios, desarrollando el uso reflexivo y crítico de los [6].

Es por eso que resulta necesaria la investigación y análisis de este tema en los colegios y de esta forma conoceremos si el grupo al que nos dirigimos se encuentran preparados para dar una crítica con fundamentos frente a lo que los medios trasmiten, conociendo cuál es el nivel de competencias de cada uno. De acuerdo a eso sería necesario crear estrategias para contribuir al mejoramiento de la educación mediática.

Por su parte Ferrés [7], describe que el desarrollo de las destrezas comunicativas relacionadas con la competencia d supone en el individuo una imprescindible competencia en Comunicación Audiovisual, que entendemos como la capacidad de un individuo para interpretar y analizar desde la reflexión crítica las imágenes y los mensajes audiovisuales y para expresarse con una mínima corrección en [8].

El término competencias mediáticas audiovisuales se conoce y entiende como la capacidad para acceder a los medios de comunicación; ver, evaluar, comprender y dar una crítica frente a los contenidos que ellos trasmiten. Además el tema abarca a seis dimensiones: lenguaje, tecnología, recepción e interacción, producción y difusión, ideología y valores y estética [2].

Desde nuestro punto de vista es importante que la competencia mediática tenga su reconocimiento por parte del Ministerio de Educación ecuatoriano para implementarla en el currículo de los colegios del país. Ya que son estas las encargadas de ofrecer una buena educación a los ciudadanos y clave es que tengan un nivel adecuado en competencia mediática.

Es por ello que consideramos que las competencias mediáticas juegan un papel básico dentro de la educación de la sociedad, y al ser este un tema de investigación nuevo en Ecuador nos permitirá conocer y mostrar cual es la realidad en nuestra sociedad frente al uso de las nuevas tecnologías.

Las instituciones educativas deben encargarse de que los estudiantes se conviertan en sujetos que desarrollen nuevas competencias adaptadas a la era digital en la que nos encontramos. Los autores Villanueva y Casas [9], las denominan e-competencias o competencias electrónicas, las subproducto de los cambios económicos tecnológicos y culturales, que implican desde luego un aprovechamiento de la información en todas sus manifestaciones [10].

II. MARCO TEÓRICO El término Competencia Mediática se ha venido desarrollando en los últimos años, producto del avance y aparición de nuevas tecnologías en el ámbito de la información y la comunicación. Para la Co La capacidad de acceder a los medios de comunicación, comprender y evaluar críticamente los diferentes aspectos de los medios de comunicación y contenidos multimedia para cr [3]

III. METODOLOGÍA En la siguiente investigación se analizó dos dimensiones de las competencias mediáticas como son la Producción y la Difusión e Ideología y Valores. La metodología que se utilizó en la presente investigación es la siguiente:

Es así que debemos conocer el nivel de la sociedad en cuanto a entendimiento y crítica de la información vertida a través de los diferentes medios de comunicación. De igual manera en función de su virtualización creciente a lo largo del tiempo, y en el contexto de esta nueva realidad que da mayor prioridad al desarrollo tecnológico.

A Investigación bibliográfica Dentro del método bibliográfico nos hemos basado en una investigación teórica, a través de consultas en: revistas, textos, papers, artículos científicos e Internet, los que han permitido recolectar información e indagar en el tema investigado. Conociendo así los conceptos y definiciones básicas que envuelven a las competencias mediáticas.

globalizada en la que nos encontramos y con el papel relevante que a las tecnologías se les ha reconocido, es necesario realizar una apuesta firme por la conquista de una nueva competencia que sin duda, permitirá un mayor acceso a los derechos básicos [4]

B Investigación de campo En el método de campo se realizó la investigación en los colegios públicos, privados y fiscomisionales de Loja, para el cumplimiento de esto se aplicaron las siguientes técnicas de recolección de datos:

Estamos de acuerdo con Bernabeu [5], en que los centros educativos son los responsables de preparar a los estudiantes y garantizar que tengan un buen nivel de competencias alfabetización mediática de manera que se integren tanto en la educación con medios, como recurso didáctico que facilita el proceso de enseñanza aprendizaje, la educación en medios audiovisuales, promoviendo la responsabilidad social, la autonomía personal, y el análisis crítico a través del uso, disfrute y aprovechamiento de los medios, y la educación ante

Cuestionarios Se planteó un cuestionario que contenía tanto preguntas abiertas y cerradas. Antes de aplicar los cuestionarios efectuamos una validación de los mismos a jóvenes de diferentes edades y colegios de la ciudad, en donde el cuestionario fue óptimo y con una duración máxima de 30 minutos; los mismos fueron aplicados online a una población específica de estudiantes de entre décimo año de básica a tercer año de bachillerato de 23 colegios de la ciudad de Loja, con la finalidad de diagnosticar el nivel de competencias mediáticas que poseen.

CISTI 2015 | 250

Cada pregunta fue evaluada en base a criterios de valoración diseñados en conjunto con los cuestionarios, de esta manera la escala de valoración fue la siguiente: 0 puntos: equivale a una baja competencia. 1 punto: equivale a una media competencia. 2 puntos: equivale a una alta competencia. Población y Muestra Para lograr nuestros objetivos propuestos en un inicio se seleccionó a todos los colegios de la ciudad de Loja dando un total de 29, sin embargo al momento de realizar la investigación de campo 6 colegios no participaron, por lo que finalmente se aplicó a 23 colegios. El universo fue de 7.012 alumnos. La muestra con un margen de error de ±3% y con un nivel de confianza de 97% fue de 1.103. Pero el número total de estudiantes encuestados fue de 1.150 alumnos repartidos entre los 23 colegios. Las encuestas a los adolescentes fueron realizadas con consentimiento informado de los padres y docentes. Las encuestas fueron aplicadas a una población de estudiantes de entre 14 y 18 años (entre décimo año de básica y tercer año de bachillerato, es decir, estudiantes de secundaria) de 23 colegios de la ciudad de Loja, públicos, privados y fiscomisionales. Una institución fiscomisional recibe el financiamiento del Estado, la administración está a cargo del Vicariato Apostólico de cada provincia, pero sobre todo responde a una identidad cristiana. La Ley de Educación del país contempla que este tipo de establecimientos puede ubicarse en sitios donde no llega la educación pública. El cuestionario consta de 44 preguntas realizadas on-line de forma presencial en las escuelas con una duración no superior a los 30 minutos. Para el análisis de los resultados se manejó el software estadístico SPSS. IV. RESULTADOS En la siguiente tabla se observa que la mayoría de alumnos encuestados (759, el 66%) afirman haber recibido algún tipo de formación en comunicación audiovisual y digital, seguido de cierto porcentaje de alumnos que afirman tener bastante grado de formación en esta materia (224, el 19%) y un cierto porcentaje (167, el 15%) asevera no haber recibido ningún tipo de formación en comunicación audiovisual y digital. TABLE I.

FORMACIÓN RECIBIDA EN COMUNICACIÓN AUDIOVISUAL Y DIGITAL

Es interesante analizar que este gran porcentaje de colegios que afirman tener algún tipo de formación en comunicación

audiovisual y digital está dividido entre los diferentes tipos de colegios: públicos con (258, el 63%), privados con 360, el 67%) y fiscomisionales con (141, el 71%), lo que concluye en que tanto colegios públicos como fiscomisionales y privados, se encuentran en un mismo nivel de formación en comunicación audiovisual y digital, por lo que no nos atreveríamos a decir que unos colegios están en mejor nivel que otros ya que se ha comprobado que poseen el mismo grado de competencias. Para analizar la dimensión de Producción y Difusión se evalúa el grado de conocimiento sobre las rutinas productivas y la organización y funcionamiento de los entes emisores de mensajes audiovisuales [11]. Se compone de las preguntas 17, 24, 25 del cuestionario. Los resultados son los siguientes. TABLE II.

CONOCIMIENTOS PRODUCCIÓN AUDIOVISUAL

DE

LOS

COMPONENTES

DE

UNA

Con esta pregunta se pretendía evaluar el grado de conocimiento respecto al rol que cumple cada profesional en una producción audiovisual, de esta manera como se observa en la tabla la mayoría de alumnos conoce lo suficiente (557, el 48%), seguido de los alumnos que no conocen las múltiples profesiones que involucran un proceso de producción (418, el 36%), y aquellos alumnos que sí conocen el tema (175, el 15%). En esta pregunta se ha realizo un análisis de acuerdo a los diferentes tipos de colegios públicos, privados y fiscomisionales; en los públicos (201, el 49%) nos indica que los alumnos no conocen las distintas profesiones, mientras que en los colegios privados (258, el 48%) y fiscomisionales (108, el 54%) los alumnos conocen suficientemente las distintas profesiones. En la dimensión de Ideología y Valores se pretende evaluar hasta qué punto las personas de la muestra son conscientes de la ideología y valores que transmiten los mensajes audiovisuales y de la capacidad de seducción emocional de estos. Esta dimensión se constituye de las preguntas 8, 9, 9.1, 13, 13.1, 19, 21, 26, 27, 27.1, 29 y 30 del cuestionario. En esta pregunta se valora la capacidad de detectar las intenciones o intereses que subyacen tanto en las producciones corporativas como en las populares, así como su ideología y valores explícitos o latentes, adoptando una actitud crítica ante ellos; entre las opciones de respuesta se encuentran la crítica especializada, si es una película taquillera o un programa con poca audiencia, si el alumno aprende con este tipo de programas, el entretenimiento, por las publicaciones en redes sociales o por los actores que aparecen en determinadas

CISTI 2015 | 251

producciones. Los resultados son los siguientes (610, el 53%) estudiantes encuestados de los colegios públicos, privados y fiscomisionales actúan sin capacidad crítica ante las producciones cinematográficas, mientras que (366, el 32%) actúa con capacidad crítica y adecuada escala de valores y (174, el 15%) Tiene una noción básica de detectar las intenciones o intereses que subyacen en las producciones cinematográficas. TABLE III.

SELECCIÓN DE UNA PELÍCULA O PROGRAMA DE ACUERDO AL PENSAMIENTO CRÍTICO

AGRADECIMIENTOS Estudio desarrollado en el marco de la Convocatoria de Proyectos I+D del Ministerio de Economía y Competitividad, con clave: EDU2010-21395-C03ta misma investigación se desarrolla a nivel nacional en Ecuador a través de la V Convocatoria Anual de Proyectos de Investigación con Fondos Internos (2014) de la Universidad Técnica Particular de Loja, bajo el s, profesores y padres de La directora de este último estudio es Diana Rivera Rogel y en él participan como investigadores, Isidro Marín, Catalina Mier, Andrea Velásquez, Juan Carlos Torres, Margoth Iriarte, Lucy Andrade; y como becaria de investigación, Stefany Celli. Esta investigación también forma parte de las actividades de colaboración de la Red Internacional de Investigación de la Gestión de la Comunicación (R2014/026 XESCOM) que integra a grupos de investigación de las Universidades de Santiago de Compostela, Vigo, Coruña, Portugal, Brasil, México y Ecuador. El Departamento de Comunicación de la UTPL forma parte de esta red internacional de investigación de la comunicación.

REFERENCIAS BIBLIOGRÁFICA [1] Doi. http://dx.doi.org/10.3916/C38-2012-02-08. 2012 [2]

La gran mayoría de estudiantes encuestados de los diferentes tipos de instituciones no identifican la ideología en una producción audiovisual, sino que más bien se guían por lo que está en boga, por las producciones más comerciales y más vendidas o por los comentarios de las personas. Como ha sucedido en investigaciones previas [12]. V. CONCLUSIONES El grado de competencia mediática audiovisual en los 23 colegios de la ciudad de Loja a los cuales se encuestó, muestran que los alumnos poseen competencias medias como arrojan los resultados. Los estudiantes han adquirido conocimientos, capacidades, habilidades en comunicación audiovisual y digital, lo que está determinado mucho por la edad ya que éstos se encuentran más familiarizados con las nuevas tecnologías. Se pudo comprobar a lo largo de esta investigación que el alumnado no es crítico con las producciones audiovisuales y no identifica la ideología y los valores que estos contenidos les transmiten inconscientemente. Como también existe un desconocimiento de las profesiones y los procesos de producción.

-107. 2007.

[3]

Comunicar, 1-8. 2011.

[4] [5]

-82.

Comunicar, 1. 2011. Euro- Iberoamerican Congress , pp. 1-15. Mayo de 2010.

[6]

Euro- Iberoamerican Congress , pp. 2. Mayo de 2010. J. la comptetencia en Comunicación Audiovisual: Propuesta articulada de dimensiones e indicadores . Comunicar , 1-8. 2006 [8] J. Fer Comunicar , 7. 2006 [9] - Competencias: nuevas habilidades del estudiante en la era de la educación, la globalidad y la generación del Signo y Pensamiento , XXIX (56), pp. 2-8. 2010. [10] - Competencias: nuevas habilidades del estudiante en la era de la educación, la globalidad y la generación del Signo y Pensamiento , XXIX (56), pp. 2. 2010. [11] J. Ferrés, A. García, J.I. Aguaded, J. Fernández, M. Figueras & M. Blanes. Competencia mediática. Investigación sobre el grado de competencia de la ciudadanía en España. Madrid, Instituto de Tecnología Educativa. 2011. [12] C. Mayugo Majó, M. Moix Puig, M. Ricart Masip., & S. Reñé Cabezas. Representación mediática y producción audiovisual adolescente. Comunicar, 25. 2005 [7]

CISTI 2015 | 252

Cibermedios Nativos Digitales y Redes Sociales Presencia y actividad de medios españoles en Facebook y Twitter

Native Cybermedia of Web and Social Networks Presence and activity of Spanish media on Facebook and Twitter Valentín-Alejandro Martínez-Fernández Óscar Juanatey Boga

Verónica Crespo Pereira Doctoranda en Comunicación Universidad de Vigo Pontevedra, España [email protected]

Facultad de Economía y Empresa Universidad de A Coruña A Coruña, España [email protected]; [email protected]

Resumen El impacto que las nuevas Tecnologías de la Información y la Comunicación han tenido sobre el paradigma tradicional de comunicación en general y el sector periodístico en particular se ha visto reflejado en cuestiones como el importante desarrollo que en los últimos años han mostrado en España los cibermedios denominados nativos digitales por su origen en la propia red. Este trabajo se centra en analizar la presencia y posición de estos cibermedios en las redes sociales más importantes por su generalización e implantación, Facebook y Twitter, pues en la medida en que el modelo de consumo de información ha sufrido también importantes transformaciones, parece fundamental un buen posicionamiento de los medios de comunicación en estas redes sociales para alcanzar el éxito en este nuevo escenario. Palabras Clave periodismo.

redes sociales; cibermedios; España;

Abstract The impact of new information and communication technologies on the traditional paradigm of communication in general and the newspaper industry in particular has been reflected in issues such as the significant development in recent years the online media in Spain called digital natives originates from the network itself. This paper focuses on analyzing the presence and position of these online media in the most important social networks for its generalization and implantation, Facebook and Twitter, then to the extent that the model of information consumption has also undergone major transformations, seems fundamentally a good positioning of the media on these social networks to succeed in this new scenario. Keywords social networks; cybermedia; Spain; journalism.

I.

INTRODUCCIÓN

Pocos podían vaticinar en el ocaso del pasado siglo, cuando la audiencia de Internet era inferior al uno por ciento de la población, que tan solo una década después éste sería el único medio con tasas de audiencia positivas y sostenidas que le permiten ser en la actualidad el núcleo principal de lo que Mcluhan profetizó como la Aldea Global [1]. El inicio de la segunda década del nuevo milenio ha supuesto un punto de inflexión en lo que se refiere a al sector

periodístico, en la medida en que por primera vez el número de personas que acceden a Internet a diario superó al de lectores de periódicos impresos; de este modo, si en el año 2010 por primera vez la penetración según datos del Estudio General de Medios elaborado por la Asociación para la Investigación de los Medios de Comunicación [2] se igualaba entre diarios e Internet en un 38%, en la actualidad, según el último dato ofrecido a finales de 2014 la penetración de los diarios ha descendido a un 30%, mientras la de Internet continúa con un fuerte crecimiento que sitúa ya a la red en una tasa de penetración del 60%. Esta situación ha configurado un escenario en el que ha proliferado, además de los medios digitales con matriz en otras plataformas, la aparición de cibermedios nacidos en la propia red [3], y que si bien por su juventud y pequeño tamaño tienen que afrontar grandes retos que dificultan incluso su supervencia [4], constituyen un interesante fenómeno en la medida en que consoliden un nuevo canal con el que acercarse a los ciudadanos [5]. En este marco las redes sociales han supuesto un cambio transcendental en el ámbito del ciberperiodismo, pues ya no son percibidas como una mera herramienta más sino como un nuevo ecosistema periodístico y metáfora de las nuevas relaciones con las audiencias [6]. II.

CIBERMEDIOS NATIVOS DIGITALES

El número de usuarios de Internet en España ha pasado de menos de 2 millones en el año 2000 a casi 25 millones en la actualidad según el último dato facilitado por la Asociación para la Investigación de los Medios de Comunicación sobre audiencias de Internet [7]. Si bien, tal y como señala Arrese [8] no ha de olvidarse que la demanda de los productos de los medios depende primariamente de los contenidos y solo secundariamente del soporte, aunque sean fundamentales, por ejemplo, para la accesibilidad, no es menos cierto que el importante crecimiento de esta accesibilidad en los últimos años ha facilitado la aparición de cibermedios nacidos en la propia red o lo que se viene en denominar medios nativos digitales.

CISTI 2015 | 253

Pero es sobre todo en los últimos años cuando nacen los que Salaverría y Negredo [3] califican como cibermedios nativos digitales de segunda generación, caracterizados por una orientación de carácter más informativo y un distanciamiento respecto a sus predecesores más centrados en un periodismo de opinión. En este contexto, ya pocos dudan de que la extendida idea de que las nuevas generaciones de jóvenes están menos informadas que las anteriores es errónea, pues lo que realmente ha sucedido es un cambio en la elección de las vías que utilizan para permanecer informados, y en la que las redes sociales juegan un papel fundamental [6]. III.

METODOLOGÍA

Para el desarrollo de la presente investigación se ha optado por seleccionar aquellos cibermedios que, además de ser nativos de la Red, pueden considerarse de difusión eminentemente nacional. De este modo, se ha desarrollado este trabajo tomando como muestra el cibermedio Lainformación.com fundado en el año 2009; Eldiario.es, nacido en 2012, casi en paralelo al nacimiento de la franquicia española de Huffington Post, que también se incluye en el análisis dada su relevancia a nivel nacional pese a no ser exactamente un cibermedio de carácter nacional en su origen; Infolibre, que inicia su actividad en el año 2013; y dos más asentados en cuanto a número de años en el mercado, por un lado El Confidencial, que inicia su andadura en el año 2001, y Libertad Digital, que arranca en el año 2000. Para la obtención de los datos se ha recurrido a la herramienta de análisis y monitorización en redes sociales Fanpage Karma, del que para esta investigación se han recogido los datos facilitados para el período entre el 5 de Enero de 2015 y el 1 de Febrero de 2015, periodo al que se circunscribe por tanto este análisis. IV.

RESULTADOS

En una primera aproximación a los resultados obetnidos, se puede señalar que existen importantes diferencias en cuanto al éxito de los cibermedios analizados en la red social Facebook.

A. Los diarios en cifras: comparativa en redes sociales A la hora de abordar la presencia de los cibermedios en las redes sociales, un indicador importante podemos encontrarlo en el número de seguidores (Twitter) y fans (Facebook), tal y como se aprecia en la tabla I. TABLA I.

Fans en Facebook

Seguidores Twitter

Libertad Digital

53.236

45.879

InfoLibre

196.918

89.825

Haffington Post

238.837

271.496

Eldiario.es

211.627

302.108

El Confidencial

341.904

338.810

n.d.

n.d.

Cibermedio

Lainformacion.com

Así, los diarios con un mayor número de fans y segudores en las redes sociales analizadas son El Confidencial, Eldiario.es y El Huffington Post (con una horquilla de entre los 340 mil y los 210 mil). Del otro lado de la balanza se encuentra Libertad Digital con el menor número de fans y seguidores (con valores alrededor de los 50 mil simpatizantes). El Huffington Post y Eldiario.es son los únicos medios que tienen más seguidores en la red de microblogging que fans de Facebook. En lo que se refiere al número de publicaciones, como se puede apreciar en la Tabla II, por regla general el mayor número es en Facebook respecto a Twitter excepto para los casos de InfoLibre y El Confidencial. La relación de post por tuits de Libertad Digital es de 12,7 a 1, es decir, por cada tuit este diario publica 12,7 posts. La relación del Huffington Post es el 3,9 a favor de Facebook y la de Eldiario.es es también de 3,9. Las excepciones son El Confidencial e infoLibre que por cada post tienen 1,8 tuits publicados. Lainformacion.com destaca por su bajo número de tuits publicados, tan solo 13. TABLA II.

Los diarios Huffington Post e InfoLibre consiguen un rendimiento o éxito de su página del 100% según el cálculo facilitado por la herramienta gracias a un elevado valor de Actividad de los fans con la publicación y su buen crecimiento en número de fans.

Cibermedio

En un segundo nivel se encuentran El Confidencial y Libertad Digital que presentan un rendimiento del 80% y 70% respectivamente. Al analizar la misma variable de rendimiento facilitada por la herramienta Fanpage Karma para la red social Twitter, cabe destacar en primer lugar que el éxito obtenido por los diarios analizados es en general inferior al alcanzado para Facebook. Ninguno de los diarios consigue el 100% del éxito. Sin embargo, es El Confidencial el diario que más rendimiento obtiene, incluso por encima de la cifra de Facebook con un 89%. En un segundo nivel se situan infoLibre y El Huffington Post que presentan un nivel de rendimiento del 66% y 61% respectivamente.

FANS Y SEGUIDORES EN REDES SOCIALES

Libertad Digital

NÚMERO DE PUBLICACIONES EN REDES SOCIALES Post en Facebook

Tuits

Relación post/tuits

1.491

117

12,74

InfoLibre

641

1.174

0,55

Haffington Post

767

192

3,99

Eldiario.es

748

188

3,98

El Confidencial

813

1.483

0,55

lainformacion.com

n.d.

13

La publicación que se habría ahorrado más o, si se prefiere, la empresa que más valor publicitario consigue respecto a la competencia analizada es infoLibre con más de 527 mil euros. La actividad de los fans, calculada como la suma del número medio de "Me gusta", "Comentar" y "Compartir", dividida por el número de fans, es muy dispar y se encuentra polarizada al analizar los datos de los cibermedios.

CISTI 2015 | 254

De un lado se encuentran InfoLibre y Huffington Post que consiguen un 10,18% y un 9,26% de actividad. Del otro lado, la actividad de los fans de Libertad Digital, El Confidencial y Eldiario.es es mucho menor con un 4,43%, 4,09% y 3,85%. Es decir, que podría considerarse que los diarios que mayor respuesta obtienen de su audiencia son infoLibre y Huffington Post. Por orden, la mayor interacción en Facebook durante el periodo de análisis es para Huffington Post con más de 607 mil interacciones. Hay que tener en cuenta que la interacción tiene únicamente en cuenta aquellas publicaciones que han conseguido alguna reacción de la audiencia, sin entrar a valorar aquellas que no han conseguido ninguna. TABLA III.

INTERACCIÓN EN FACEBOOK

Publicaciones en Facebook

Total "Me gusta, comentar, compartir"

Interacción

1.491

64.724

0,08

InfoLibre

641

554.223

0,44

Haffington Post

767

607.708

0,33

Eldiario.es

748

227.034

0,14

El Confidencial

813

387.321

0,14

lainformacion.com

n.d.

n.d.

n.d.

Cibermedio Libertad Digital

De este análisis se pueden desprender varias reflexiones. Posiblemente, la explicación de los distintos niveles interacción de las audiencias haya que buscarla en los distintos perfiles de los seguidores de cada medio, en parte como consecuencia probable de sus distintas líneas editoriales. Cabría profundizar en el análisis tomando en consideración la distinción entre los distintos niveles de interacción, pues tal y como la propia herramienta refleja, se puede considerar que hay una mayor

Comparando la interacción en Facebook y Twitter, parece que a un menor número de publicaciones se da un mayor número de interacciones, pues Libertad Digital, el mayor publicador en Facebook (más de 50 por día) consigue su menor interacción en esta red social (0,08%) y en Twitter donde es el segundo menor publicador, consigue la mayor interacción con respecto a la competencia. Así mismo, el diario que menos publica es lainformacion.com con un 0,46 tuits/día y alcanza un nada desdeñable comparativamente hablando del 0,02% de interacción. A su vez, El Confidencial e infoLibre los mayores publicadores en Twitter (52,95 y 41,93 tuits/día) consiguen la menor interacción (0,01% y 0,02%) y en Facebook InfoLibre siendo el menor publicador consigue de largo la mayor interactividad (0,44%). Por tanto, aquí se da que a mayor número de publicaciones menor interacción conseguida en proporción. En el caso de Twitter el que El Confidencial e infoLibre se sitúe muy por delante en número de publicaciones parece ir a su favor (tendencia que no pasaba en Facebook) al conseguir el mayor índice de engagement con respecto a la competencia, un 0,52% y 0,91% respectivamente. El Huffington Post el tercero con más tuits alcanza también la tercera posición en engagement con un 0,29%. El engagement conseguido de Eldiario.es es de 0,21% y el de Libertad Digital es de un 0,16%. Con una media de 0,46 tuita diarios, la última publicación en engagement es Lainformación.com con un 0,01%. Parece en este caso que a una baja producción de contenidos en Twitter un bajo engagement. De acuerdo a las cifras obtenidas de nuestro propio análisis de interacción, podemos ver cómo los seguidores de Twitter mantienen una conducta menos proactiva que la que tienen los fans de Facebook con los diarios analizados, como se refleja en la tabla V TABLA IV.

La publicación que consigue que sus lectores compartan más es InfoLibre con 176.444 veces para el periodo analizado. Muy cerca está Huffington Post con 164.000 veces y El Confidencial con 135.403. Ya en otro nivel están Eldiario.es con 81.429 veces y Libertad Digital con 13.928 veces. Llama la atención que Eldiario.es teniendo un mayor número de fans alcance mucha menos interacción que infoLibre que parece que es quien mejor gestiona y alcanza una interacción de calidad. Son los fans de Huffington Post quienes ponen en primera seguido de infoLibre con 306. El Confidencial con 213095. Ya bastante por debajo se encuentra Eldiario.es Libertad Digital con 33.923. Si la tendencia general del Huffinton Post, Eldiario.es e infoLibre es que su audiencia comparta más que comente los post, en Libertad Digital este fenómeno se invierte siendo ligeramente superior el número de comentarios realizados frente al número de veces que se comparte un post.

INTERACCIÓN EN TWITTER

Retuits&Fav.

Interacción

Libertad Digital

2.046

0,04

InfoLibre

22.794

0,02

Haffington Post

22.104

0,04

Eldiario.es

17.450

0,03

El Confidencial

48.467

0,01

777

0,02

Cibermedio

lainformacion.com

B. Retención y fidelización de la actividad de los Fans Fanpage Karma facilita a los usuarios cifras sobre la retención de sus fans gracias a la media de comentarios que realizan. I nfoLibre concentra la mayor parte de su total en fans que interactúan 1 sola vez (53,3%), 2 veces (15,2%) y más de 10 veces (7,9%). Sus fans se polarizan entre los que interactúan poco y un alto porcentaje que interactúa mucho.

CISTI 2015 | 255

Eldiario.es y Huffington Post tienen fans poco activos en la interacción con el diario, lo mismo que sucede con El Confidencial. Libertad Digital a su vez tiene un 57,4% de fans activos que interactúan 1 sola vez, un 15,1% 2 veces, 7% 3 veces y un 6,9% más de 10 veces. Los fans de este diario acumulan una parte importante que interactúa poco mientras que tiene un considerable porcentaje de fans que son asiduos a la interacción. Las publicaciones con mayor porcentaje de fans activos que interactúan una sola vez durante el periodo analizado son El Huffington Post (79,6%), El Confidencial (71,4%) y Eldiario.es (68,3%). Este elevado porcentaje muestra que la mayoría de los fans activos de El Huffington Post y El Confidencial interactúan poco. Es destacable que los diarios de InfoLibre, Libertad Digital y Eldiario.es, tienen una elevada cifra de fans activos que interactuaron con la publicación más de 10 veces en un periodo de 28 días (7,9%, el 6,9% y 5%). Es por ello que podemos hablar de un relativamente alto porcentaje de fans que son fieles a estas publicaciones y son altamente proactivos (ya sea Entre una horquilla del 15-10% se encuentran las cinco publicaciones de las que tenemos datos con una interacción de sus fans activos de dos veces en un periodo de 28 días. V.

CONCLUSIONES

El origen digital de los ciberdiarios nativos no implica la obtención del éxito completo en las redes sociales. Facebook es la herramienta en la que los medios analizados obtienen el mejor rendimiento de sus cuentas, a excepción de El Confidencial y Eldiario.es donde su mayor rendimiento lo alcanzan en Twitter. Los diarios analizados tienen más audiencia en la red social Facebook que en Twitter (excepto El Huffington Post y Eldiario.es). Así mismo, vemos que es precisamente Facebook la herramienta que más se utiliza, en número de publicaciones, para contactar con la audiencia (excepto El Confidencial e infoLibre que se comunican más a través de Twitter) obteniendo a su vez más respuestas o reacciones de su audiencia con respecto a Twitter. El diario que más maximizaría económicamente su actuación en la red social Facebook es infoLibre frente a Libertad Digital que conseguiría el menor valor publicitario. Todas las excepciones previamente planteadas reflejan que no hay un comportamiento único, lo que parece mostrar que los cibermedios siguen buscando el modelo de contacto con sus públicos. Ser el diario que menos posts publica y tercero en número de fans (InfoLibre) parece no ir en contra de obtener el mayor porcentaje de interacción muy por delante de la competencia. A su vez, tener el segundo mayor número de fans no implica una gran interacción con su audiencia (Eldiario.es). Por otro lado, el que Libertad Digital tenga el mayor número de publicaciones tampoco asegura una elevada interacción. Si la tendencia general de todos los diarios analizados (Huffinton Post, Eldiario.es e infoLibre y El Confidencial) es

que su audiencia comparta más que comente los post, en Libertad Digital este fenómeno se invierte siendo ligeramente superior el número de comentarios realizados frente al número de veces que se comparte un post. La bidireccionalidad que permiten las redes sociales no está siendo aprovechada por todos los diarios analizados. El Confidencial y Eldiario.es son las publicaciones que más en contacto directo está con sus seguidores de Twitter frente a la unidireccionalidad de El Huffington Post, Libertad Digital y Lainformacion.com manteniendo una comunicación totalmente nula para el periodo analizado. La capacidad de retención de fans de los diarios es muy diferente. La mayor parte de los fans que interactuaron con los diarios analizados lo hicieron una sola vez en el periodo analizado. RECONOCIMIENTOS Esta comunicación forma parte de las investigaciones desarrolladas por la Red Internacional de Investigación de Gestión de la Comunicación (R2014/026 XESCOM), coordinada por el grupo Novos Medios de la Universidad de Santiago de Compostela, conjuntamente con la participación de los grupos IMARKA de A Coruña, NECOM y MILE de Vigo así como investigadores de las Universidades Fernando Pessoa, Departamento de Lenguas e Literaturas Modernas de Açores y Centro de Estudos da Comunicação e Sociedade da Universidade do Minho en Portugal, del Grupo Medios y Sociedad de la Autónoma de Tamaulipas en México y de las Escuelas de Comunicación de las Universidades Técnica Particular de Loja y Pontificia Católica sede de Ibarra de Ecuador. Con estas dos últimas Universidades (PUCESI y UTPL) de Ecuador la Red XESCOM participa en el Programa Prometeo de SENESCYT. REFERENCIAS BIBLIOGRÁFICAS [1] [2] [3]

[4] [5]

[6] [7] [8]

O. Islas, Latinoamericana de Comunicación Chasqui, nº 86, Quito,2004,.pp. 3237 AIMC, Estudios General de Medios, Febrero a Noviembre de 2014, disponible en www.aimc.es M. A. Cabrera, Evolución de los cibermedios; de la convergencia digital a la distribución multiplataforma, Ed. Fragua, 2013, pp. 175-180. N. Bruno y R. K. Nielsen, Survival is success: journalistic online startups in western Europe. Reuters Institute for The Study of Journalism,. Disponible en http://reutersinstitute.politics.ox.ac.uk Estudio de la multimedialidad, usabilidad, hipertextualidad e interactividad de las aplicaciones de medios nativos digitalres sobre el mensaje periodístico, Vol. 18, núm. Especial octubre, , servicio de publicaciones de la Universidad Complutense, Madrid, 2012, pp. 243-251. ístico. Medios españoles Laguna (Tenerife), Univerisdad de La Laguna, 2010, pp. 176-186. AIMC, Audiencia de Internet, Octubre-Noviembre de 2014, disponible en www.aimc.es gunas consideraciones sobre la gestión de productos y Pamplona, 2004, pp. 9-44

CISTI 2015 | 256

La participación de la audiencia en los medios españoles. Análisis de las últimas tendencias. Digital media participation. A trends overview Berta García Orosa Universidad de Santiago de Compostela, Departamento Ciencias de la Comunicación, Facultad Ciencias de la Comunicación Santiago de Compostela, España [email protected] El presente artículo ofrece los primeros datos Resumen obtenidos por una investigación realizada sobre la innovación de los cibermedios en España. A través de diferentes técnicas de investigación como el análisis de contenido, las entrevistas o los grupos de discusión se estudian los principales casos de éxito españoles. En las siguientes líneas se ofrece un resumen de las tendencias en uno de los aspectos: la participación . Palabras Clave

participación, internet, cibermedios.

Abstract Present paper provides some preliminary evidences from a research on the innovation of online media in Spain. This research analyzes significant cases of success innovation in spanish media through content analysis, interviews or focus group. The next lines offer an overview of trends about participation in media. Keywords I.

participation, internet, digital media INTRODUCCIÓN Y METODOLOGÍA

La participación de la audiencia, su importancia y su supuesta influencia en la información periodística, ha sido uno de los ítems recurrentes en el discurso público de los medios de comunicación en España en los últimos años. Como búsqueda de negocio, como ariete de la calidad, como elemento imprescindible de una verdadera democracia o simplemente como una nueva moda o corriente beneficiosa para el departamento de comunicación de los medios, la interacción con la audiencia fue utilizada por la mayoría de ellos. Las próximas líneas únicamente pretenden esbozar las nuevas tendencias de esta participación y de la propuesta realizada desde los propios medios de comunicación en España. Este artículo se desarrolló en el marco del proyecto financiado por Ministerio de Economía y Competitividad Arquitectura de la interactividad periodística en dispositivos múltiples: formatos de información, conversación y servic (Referencia: CSO2012-38467-C03-03). El estudio, más amplio y todavía en desarrollo, analiza el desarrollo de los cibermedios en España a partir del examen de casos reales de éxito. El objetivo principal del trabajo es contribuir a la innovación y desarrollo de los cibermedios en España mediante criterios

empíricos sólidos que se obtendrán a partir del análisis de las experiencias de innovación más relevantes. En la fase de desarrollo en la que se encuentra se están detectando las principales vías de innovación en los medios digitales españoles para, a continuación, intentar aportar definiciones de conceptos como éxito, rentabilidad, innovación, eficacia, relevancia, calidad, cadena de valor, en relación con los cibermedios. El proyecto utiliza la triangulación metodológica pero, en el momento del desarrollo en el que nos encontramos, se está trabajando con el análisis de contenido y las entrevistas a los responsables de los medios digitales incluidos en la muestra o responsables de innovación de los mismos. Se trata, por tanto, de resultados preliminares obtenidos a través de las entrevistas realizadas a los responsables elegidos en función de los resultados de la primera fase del estudio a través del análisis de contenido. A partir de los datos iniciales, se llevó a cabo un estudio concreto de aquellos medios que presentan una mayor o mejor innovación en los últimos años. Para determinar los medios de la muestra se tuvieron en cuenta los siguientes criterios: nivel de relevancia, criterios de OJD (Oficina de Justificación de la Difusión) y de EGM (Estudio General de Medios) y Casos de especial interés que no entrarían en los dos primeros por tratarse de productos nativos en la red o por tener características diferenciadas y peculiares. Las entrevistas fueron realizadas en el 2014 a partir de un cuestionario previo común a un total de 16 medios. II.

PARTICIPACIÓN COMO ELEMENTO IMPORTANTE DE LA INNOVACIÓN

La literatura reciente de estudios sobre contenido generado por el usuario en los medios de comunicación destaca el potencial de la interacción en los cibermedios y muestra el desarrollo de opciones y visibilidad de esa participación (Fondevila, 2012 (1); García de Torres, 2011 (2)) en los últimos años. En este artículo presentamos únicamente algunas de las tendencias en la participación de la audiencia en los medios españoles como innovación a través de los resultados preliminares de una investigación todavía abierta. En general, las innovaciones en los medios de comunicación son variadas y van desde el uso del vídeo

CISTI 2015 | 257

interactivo de la productora 93metros en Madrid 360º o en el documental de la Plaza del 15M a la aparición de la televisión en nuevas pantallas (televisiones conectadas, Smart TV, .

Durante por la inclusión de comentarios realizados por los propios espectadores durante la retransmisión del evento normalmente en televisión y radio y, de modo especial, en las retransmisiones deportivas.

Sin embargo, la primera tendencia indica que, dentro de las innovaciones, la participación y, concretamente, las redes sociales, conforman un punto recurrente en las declaraciones de los responsables de los medios de comunicación españoles. La importancia concedida en el discurso de los medios a la participación del ciudadano y a la desaparición del espectador pasivo es destacable. ( extraído de la entrevista a responsables de El Confidencial).

Y después porque uno de los puntos destacados en las estrategias de los medios es la continuación del producto una vez finalizado a través de la creación de comunidades en redes sociales o en la propia web de la empresa. Además, en el caso del producto a través de la audiencia en la red es una de las actividades más potenciadas por los medios de comunicación.

En términos similares se manifiestan en Atresmedia Digital (2014): (extraído de la entrevista a responsables de Atresmedia Digital). Algunos medios de comunicación digitales españoles incluso llegan a identificar a las redes sociales como la mayor innovación acaecida en sus empresas en los últimos años y en otros casos valoran sobre todo la recepción de visitas y el crecimiento en número de lectores. III.

FINES DIFERENTES

Esta participación se concreta en diversos objetivos: los contenidos y su producción y la distribución del producto una vez elaborado que podría integrarse, de nuevo, dentro del producto especialmente en el caso de las emisoras de radio. Muchas veces incluso se utilizan como instrumento para que los usuarios simplemente accedan desde diferentes lugares y soportes o para ganar audiencia trabajando con aquellos temas En el caso de las redes sociales, por ejemplo, se usan como entrada de nuevas audiencias y consolidación de las anteriores. Esto permite a los medios de comunicación ser más competitivos a través de la retroalimentación y el cambio de producto y, sobre todo, con el análisis de la información que facilita la audiencia a través de su uso de la red. La participación empieza a formar parte, pues, de la información antes de la creación del producto, y continúa durante su emisión y después de su emisión inicial o principal veces los medios ofrecen adelantos o preestrenos a sus comunidades en la red-. Antes porque, aunque de modo minoritario, la participación de la audiencia y su actuación e interacción con los contenidos ofertados en otras ocasiones por el medio de comunicación o con su propia presencia en la red, influye en la elaboración de un nuevo producto.

Tal y como informan responsables de 93metros la participación podría, incluso, en algún momento, modificar todo el producto antes de su emisión pero, sobre todo, en la fase de distribución: . De este modo, la audiencia está presente en el producto antes, durante y después ya que, a través, fundamentalmente de las redes sociales, recibirán información complementaria e incentivos marcados por la estrategia de comunicación en la red de la propia productora. No en vano, uno de los aspectos más potenciados por los medios dentro de la participación del usuario son las posibilidades de distribución, la capacidad que tienen la audiencia de < medio de comunicación> (La Vanguardia.com) En palabras de los responsables de Atresmedia: . IV.

NICHOS DE PARTICIPACIÓN

En general, las entidades consultadas manifiestan su interés por la participación de la audiencia, por la facilidad y accesibilidad de los instrumentos propuestos y una apuesta final por la última herramienta, en este caso, las redes sociales. Aunque se carece de datos concretos de participación, la audiencia parece escasamente activa y, en algunas ocasiones, concentrada únicamente en la distribución y difusión del producto después de su emisión.

CISTI 2015 | 258

Sin embargo se detectan determinados espacios concretos de comunidades que se unen, por ejemplo, alrededor de un determinado programa o serie de televisión como comentaban los responsable de Atresmedia y son muy activas. De este modo, pese a la multiplicidad de vías de participación y su duración en el tiempo, la influencia de la participación de la audiencia en los contenidos es escasa, salvo en casos como el comentado por El Confidencial en los que indican que ha llegado a tener columnista que ha salido del Otro forero que firmaba desde Londres se convirtió en un columnista muy prestigioso durante más de un año y pico. Era un tío de macro muy bueno, se convirtió en una especie de Macoy. Pero sí han salido del foro algunas firmas que hemos mantenido, y por supuesto han salido pistas informativas, ¿Muchas? No, pero algunas sí> (extraído de la entrevista a responsables de El Confidencial). Pero, en general, la influencia de la participación de la audiencia en los contenidos de los medios de comunicación es, todavía, minoritaria y centrada en determinados aspectos o propuestas innovadoras. En TVE cuentan . En algunos, la audiencia no participa en comentarios, sólo en votaciones o compartiendo enlaces. Se destaca, en general, la importancia de la participación en comunidades pequeñas, la microparticipación (RTVE). En determinado nichos la audiencia es muy activa, por én en radio en se creó comunidad llamada con cierta actividad en Facebook y en Twitter, y, según manifiestan responsables del medio, son de gran ayuda en la difusión del contenido, . Otro caso registrado de innovación en este sentido es el de la Orquesta y coro de RTVE en la que hicieron un concurso en el que ellos tocan una pieza de un minuto para que el usuario intente descubrir cuál es. V.

TRABAJO SEO Y REDES SOCIALES

La tendencia según la información recogida en el 2014 es a incluir esta participación sobre todo a través de las redes sociales. La estrategia más seguida por los medios consultados es estar en todas aquellas a las que acceda su público aunque son muy conscientes de los diferentes perfiles de usuario, utilización y características de cada una de las redes sociales y, sobre todo, de las diferencias marcadas por los dispositivos de

acceso a la información. Así lo resumen desde RTVE: . En el Grupo Atremedia indican que Facebook en radio es el que les da todo el remanente y el contenido digital a lo largo de toda la semana. Hola.com también indica Facebook como más relevante porque permanece más tiempo y consideran que es el de prestigio. También influye el dispositivo desde el que el público accede y, en general, la tendencia de la participación del público marca un incremento importante en la utilización de dispositivos móviles aunque no supera en muchos casos al PC. Del mismo modo, simplemente como tendencia podemos indicar que la mayor parte del tráfico que llega a través de Twitter proviene de dispositivos móviles, frente a Facebook que tiene como origen mayoritariamente un ordenador. Además de estas dos se utiliza también otras vías como Youtube o Whatsapp, entre otras. Como vimos, además de una nueva herramienta en el proceso de producción, las redes sociales son utilizadas por los medios de comunicación para conseguir una mayor visibilidad y repercusión de sus contenidos, desde el punto de vista de la distribución. (extraído de la entrevista realizada a los responsables de Hola.com). Los responsables de innovación de los medios que manifiestan optar por esta vía se muestran satisfechos con los resultados y potenciación adquiridos en el último año sobre todo a través de la consecución de visibilidad y repercusión de contenidos por las redes sociales y por la posibilidad de analizar esa información de consumo a través de herramientas como Google Analitic. El trabajo del profesional de la información, de este modo, se amplía. Los redactores, en algunos casos, ya no sólo redactan sus noticias sino que se encargan de difundirlas a través de redes sociales y gestionar las comunidades creadas. Como indica el resp ienen que preocuparse de que sus contenidos se muevan y se viralicen, porque si 2014). El redactor o profesional de la información ya no sólo debe producir la información e incluir unas etiquetas o unas palabras clave, sino que los medios de comunicación están haciendo también trabajo SEO.

CISTI 2015 | 259

Los medios de comunicación, en general, se muestran partidarios de la inclusión en sus rutinas diarias de casi todas las redes sociales, pero cada uno de ellos marca su diferencia en función de las propias características de la red y, sobre todo, del uso dado. < Normalmente Twitter es una cosa más de última hora, rápida de, de comentario así rápido y, sin embargo, Facebook suele ser más para, para comentar. Así que, y también, de una manera, yo lo relaciono, por lo menos en el caso de Onda Cero, en el caso de Facebook son más, Facebook nos permite como más (pausa) es como la parte más frívola, digamos que en la parte de Twitter es más serio, más informativo y tal, también metemos cosas frívolas y eso, pero en el caso de Facebook es una manera más de, venga vamos a comentar, vamos a t en el Facebook encontramos mucha más respuesta que en el Twitter por ponerte un ejemplo; pero bueno, cada uno, a cada usuario le gusta, le gustan unas vías u otras. Hay usuarios que todavía siguen prefiriendo el correo electrónico para comunicarse>, (extraído de la entrevista a responsable de Onda Cero). En términos similares, describe su situación la responsable de Hola.com: < La diferencia entre Facebook y Twitter depende de la herramienta. En Facebook la información permanece más tiempo, hay imágenes, un poco más de texto, si le das a me gusta, te aparecen notificaciones con las novedades, etc. Yo creo que es el prestigio. Nosotros antes no cuidábamos Facebook hasta que me encontré con unas amigas que solo entraban a hola.com a través de esta red. Twitter también nos ayuda, pero Facebook más. (Hola.com)>. En otros casos, como Jot Down, rechazan como idea inicial el uso de redes como medio de promoción y promueven el mismo como una ventana de contacto directo con lectores y comunidad. VI.

e interacción, en la que el ciudadano y el medio de comunicación deberían establecer una verdadera interacción. Las innovaciones desarrolladas son interesantes y marcan la relevancia otorgada por los medios de comunicación en relación con la participación en tres grandes vías: a) el contenido y las narrativas transmedia; b) la obtención y utilización de información a través de la actuación del usuario en los diferentes lugares de la red y, quizás la más potenciada por el momento, c) la utilización del usuario en la fase de distribución y difusión del producto producido por el medio de comunicación. RECONOCIMIENTOS Este artículo fue desarrollado como parte de las actividades de la Red Internacional de Investigación de Gestión de la Comunicación (R2014/026 XESCOM) apoyada por la Consellería de Educación, Cultura e Ordenación Universitaria da Xunta de Galicia. También es trabajo preliminar del proyecto de investigación financiado por el desarrollo De los cibermedios en España. Arquitectura de la interactividad periodística en dispositivos múltiples: formatos de información, conversación y servicios[Referencia: CSO2012-38467C03-03

REFERENCIAS BIBLIOGRÁFICAS [1]

[2]

digital en la prensa del Reino Unido, Francia, Estados Unidos y Estudios sobre el Mensaje Periodístico, 18 (1), p. 7387. DOI: http://dx.doi.org/10.5209/rev_ESMP.2012.v18.n1.39355. El Profesional de la Información, 20 ( 6) p. 611-620. DOI: http://dx.doi.org/10.3145/epi.2011.nov.02

ÚLTIMAS REFLEXIONES

Como indicábamos, se trata de resultados preliminares de la investigación, pero nos indican una menor presencia o apuesta por la participación en la que el ciudadano aporta información

.

CISTI 2015 | 260

1st Workshop on ICT in the Improvement of the Quality of Life for Seniors

CISTI 2015 | 261

Cuid@Web Plataforma de apoio aos cuidadores informais

Cuid@Web A supporting plataform for informal caregivers 3

Hélia Guerra1,2, Luís Mendes Gomes1,2, Carmen Andrade , Hugo Simas2, João Alves2, Tiago Martins2 1

ALGORITMI, Universidade do Minho, Guimarães, Portugal Departamento de Matemática, Universidade dos Açores, Ponta Delgada, Portugal 3 Escola Superior de Enfermagem, Universidade dos Açores, Ponta Delgada, Portugal {helia, lmg, candrade, 20112580}@uac.pt, {alves_joao001, tiago_martins11}@hotmail.com 2

Resumo Os cuidadores informais contribuem decisivamente para a melhoria da qualidade de vida das pessoas com necessidades especiais (idosos ou pessoas com incapacidades temporárias ou permanentes) ao prolongarem a permanência destas pessoas na sua habitação ou meio familiar. No entanto, ao atribuírem prioridade à pessoa dependente enfrentam graves riscos que colocam em causa a sua própria saúde. Neste artigo é apresentado o projeto Cuid@Web que pretende criar uma infraestrutura Web de apoio aos cuidadores informais, promovendo a sua literacia em saúde, através do desenvolvimento de capacidades relacionadas com as suas funções e com a gestão dos riscos para a própria saúde. Palavras Chave cuidadores informais; plataforma web; sistema de informação; eSaúde; pessoas com necessidades especiais. Abstract Informal caregivers contribute decisively to improving the quality of life of people with special needs (the elderly or people with temporary or permanent disabilities) to extend the stay of these people in their home or family environment. However, by giving priority to the dependent person they are facing serious risks jeopardizing their own health. In this paper, we present the Cuid@Web project that aims to create a Web infrastructure to support informal caregivers, promoting their literacy in health, through the development of skills related to their duties and the management of risks to their health. Keywords informal caregivers; web platform; information system; eHealth; people with disabilities and special needs.

I.

INTRODUÇÃO

Em pleno século XXI, prevê-se que cerca de 90% dos cuidados prestados no domicílio à população idosa sejam assumidos por cuidadores informais [1]. Na União Europeia, 80% de todos os cuidados prestados no domicílio são assumidos por cuidadores informais com cerca de metade a providenciar, pelo menos, 50 horas de cuidados por semana, e 1/3 a referir sobrecarga que se reflete em défices de atenção à sua própria saúde ([2], [3], [4]).

Falar-se de cuidadores informais significa falar de um familiar ou convivente significativo que presta cuidados de saúde a outrem de forma regular e não remunerada, implicando a responsabilidade de cuidar de alguém, de satisfazer e responder às necessidades de alguém, e de sentir preocupação, interesse e afeto por alguém [2]. A responsabilidade de cuidar de alguém dependente, para além de requerer o desenvolvimento de um conjunto de conhecimentos e capacidades para o cuidado, acarreta uma diversidade de tipos de sobrecarga ao cuidador informal (e.g., física, emocional, social e familiar, financeira), fazendo emergir diversos problemas, tais como défice de lazer; isolamento, ansiedade, depressão e diminuição de autoestima; tendência para negligenciar a própria saúde, entre outros ([3], [4], [5]). A necessidade de se criarem estruturas de apoio aos cuidadores informais tem sido assunto recorrente na literatura. Diversos estudos, alguns realizados em Portugal, identificam o apoio e o acompanhamento dos cuidadores informais como elemento fundamental na promoção da saúde e prevenção de complicações assim como na qualidade de vida quer dos próprios, quer da pessoa de quem cuidam (e.g., [6]). O projeto Cuid@Web visa criar uma infraestrutura de apoio aos cuidadores informais, promovendo a sua literacia em saúde, através do desenvolvimento de capacidades relacionadas com as suas funções e com a gestão dos riscos para a própria saúde. Propõe-se uma intervenção inovadora no desenvolvimento de uma plataforma Web para emergir e estimular comunidades virtuais de cuidadores informais, geridas por profissionais de saúde. A partir do domicílio, utilizando a internet, os cuidadores informais poderão obter informação, apoio e aconselhamento, com efeitos previsíveis na redução da sobrecarga associada ao desempenho do papel e na melhoria dos cuidados que prestam à pessoa dependente. Neste artigo, começamos por fazer uma análise do conceito de comunidade de cuidadores informais, tendo em vista o interesse e a oportunidade de utilização de ferramentas Web

CISTI 2015 | 262

2.0, nomeadamente os fóruns de comunidade online. Em seguida, apresentamos um modelo, e um protótipo construído a partir de um sistema de gestão de conteúdos, para uma plataforma Web que implementa os requisitos específicos envolvidos num fórum de comunidade online, a partir da sua definição geral, para cuidadores informais. E, por último, apontam-se direções de trabalho futuro. II.

A plataforma Cuid@Web pretende dar resposta às necessidades dos cuidadores informais, nomeadamente: disponibilizar informação em formatos diversos (e.g., artigos, notícias) e agrupadas em categorias para facilitar e abreviar o tempo de consulta; esclarecer dúvidas colocadas pelos cuidadores informais, em fórum aberto a toda a comunidade ou em mensagem privada;

COMUNIDADE VIRTUAL DE CUIDADORES INFORMAIS

A promoção de comunidades de pessoas saudáveis, nas quais se incluem os cuidadores informais, constitui o propósito central do Plano Nacional de Saúde 2012 2016 [7], designadamente através da literacia em saúde e empowerment. Neste contexto, as tecnologias de informação e comunicação são apresentadas como um recurso fundamental de concretização de estratégias para o efeito pelo Sistema Nacional de Saúde. O acesso à informação no local apropriado e no momento adequado, no sentido do desenvolvimento de capacidades de gestão e de poder de decisão sobre a situação de cuidados, é uma das necessidades frequentemente referenciadas pelos cuidadores informais. Estudos apontam o potencial educacional e de apoio das comunidades virtuais, no entanto, alertando para a importância da moderação e gestão da informação por profissionais de saúde, no sentido de a adequarem à população a que se destinam. Através do relacionamento virtual, os cuidadores informais e as pessoas de quem cuidam, encontram apoio nos seus pares, nas redes de voluntariado e nos profissionais o que se traduz num maior nível de literacia em saúde e de empowerment ([8], [9]). Em Portugal, algumas soluções têm sido desenvolvidas, sobretudo protagonizadas pelas associações de doentes com condições crónicas, tais como as oncológicas, a Diabetes, a Obesidade, o Parkinson, o SIDA, a Alzheimer, a Esclerose Lateral Amiotrófica, entre outras ([10], [11]). Estando centradas em situações de doença e embora ofereçam informação aos cuidadores informais, não assumem esta população e as suas necessidades instrumentais, cognitivas e emocionais como eixo estruturador da conceção destas soluções. A ideia principal do projeto cuid@Web é desenvolver uma plataforma Web para criar e gerir uma comunidade virtual de cuidadores informais mediada por profissionais de saúde. A -se ao objetivo e a todo o conteúdo que a plataforma irá disponibilizar aos cuidadores informais e intervenientes estarão reunidos para comunicarem. A Fig. 1, ilustra o respetivo logótipo concebido pelos autores. A escolha dos símbolos (mãos) e das cores (azul claro e azul escuro) pretendeu transmitir aos utilizadores uma associação natural a cuidados e serviços de saúde num ambiente de tranquilidade.

Figura 1 Logotipo do Cuida@Web

disponibilizar um conjunto de perguntas e respostas frequentes de interesse geral para a comunidade; promover e divulgar eventos do seu interesse que decorram virtualmente ou presencialmente em determinadas localidades; fomentar a interação entre cuidadores e entre estes e profissionais de saúde, minimizando o risco de isolamento social e os seus efeitos sobre o bem-estar dos próprios e das pessoas de quem cuidam. A comunicação entre os membros da comunidade é feita de modo assíncrono, ao contrário das redes sociais em que se faz em modo síncrono e em tempo real. III.

A PLATAFORMA CUID@WEB

Os fóruns online têm obtido sucesso na Web 2.0, sobretudo devido à forma estruturada como partilham informação entre os seus utilizadores. Um fórum online é uma página Web onde estão disponíveis tópicos de discussão sobre um determinado tema. Após selecionar um tópico, o utilizador autenticado é remetido para uma página Web, onde o assunto está ser discutido e na qual vão sendo inseridas novas respostas (mensagens), ordenadas cronologicamente. Um fórum online possui um funcionamento sequencial em cascata, ou seja, existem várias categorias de assuntos, dentro das quais existem vários fóruns. Em cada um dos fóruns existem diversos tópicos correspondentes a temas diferentes e, em cada um dos tópicos, existem mensagens. Um fórum online utiliza ainda um sistema multinível, com níveis de acesso para o administrador ou utilizador, tendo o primeiro as funções de adicionar ou eliminar categorias e tópicos, enquanto o segundo apenas pode colocar novos tópicos ou mensagens. Há ainda a possibilidade de existirem moderadores que, embora não sejam administradores, poderão eliminar e gerir mensagens. A. Modelação Optámos por uma metodologia ágil de desenvolvimento de software que, através de um processo faseado (iterativo e incremental), permitiu construir um protótipo evolucionário da plataforma [12]. Assim, o primeiro protótipo parte da definição da maior parte dos requisitos essenciais e conta com o envolvimento e contributo de representantes dos diferentes tipos de utilizadores para realizar melhorias continuas ao longo do processo de desenvolvimento. A modelação da plataforma é feita recorrendo à linguagem UML [13]. Na Fig. 2 apresentamos o diagrama de casos de uso com os vários tipos de utilizadores e os respetivos papéis. Foram identificados

CISTI 2015 | 263

quatro tipos de utilizadores com diferentes níveis de acesso: cibernauta, cuidador, profissional de saúde e administrador.

com lembretes para os eventos que podem ser enviados, por exemplo, por sms ou email. O modelo de dados da plataforma encontra-se representado na Fig. 3, através de um diagrama de classes a partir do qual geramos o modelo relacional que, após convertido para MySQL [14], foi integrado no Joomla [15].

Figura 3 Diagrama de clases

Figura 2 Diagrama de casos de uso

O cibernauta é o tipo de utilizador com menos privilégios, podendo apenas consultar artigos sem estar registado e efetuar o seu registo na plataforma. O cuidador informal é um utilizador registado que consulta toda a informação disponibilizada pelos profissionais de saúde, gere o seu perfil e participa ativamente na comunidade, colocando dúvidas através de uma mensagem privada enviada aos profissionais de saúde ou na criação de um tópico numa determinada categoria. Faz a gestão das suas mensagens e dos tópicos que coloca. Pode inscrever-se em eventos e dar feedback da intervenção do profissional de saúde, através de uma escala qualitativa predefinida ou de um comentário textual. O profissional de saúde é um tipo de utilizador registado com mais privilégios do que o cuidador. É um moderador do fórum, podendo criar e gerir categorias e os tópicos nas diversas categorias. Este responde aos cuidadores através de mensagem ou de comentário a tópicos. Pode criar e promover eventos virtuais ou presenciais (e.g., seminários, workshops). É ainda responsável por gerir as notícias e os artigos. O administrador tem acesso a todos os recursos da plataforma e a responsabilidade da sua gestão integral, bem como os privilégios de todos os outros tipos de utilizadores. Para que os cuidadores possam ter resposta em tempo útil, existe um sistema de notificação que avisa os cuidadores e os profissionais de saúde sempre que haja uma pergunta ou uma resposta, respetivamente. Podem ainda ser definidos alertas

Este modelo de classes centra-se, essencialmente, em três aspetos, em consonância com a definição de fórum online acima: o perfil da tipologia de utilizadores e os seus níveis de acesso e responsabilidades na plataforma; a estrutura do fórum na sua divisão em categorias, temas, tópicos e mensagens; os tipos de conteúdos que se podem agregar às mensagens. Tendo em vista a utilização do Web content management system Joomla para a implementação de um protótipo, alguns dos requisitos não funcionais mais comuns, nomeadamente usabilidade, desempenho, disponibilidade, portabilidade, segurança e confiabilidade, podem ser dados como adquiridos. Esta opção pelo Joomla foi, também, estendida à escolha de um tema cuja interface fosse simples e intuitiva e com menus de fácil navegação, procurando acesso rápido à informação que procuram. B. Implementação do protótipo Como já foi referido, a implementação do protótipo foi feita recorrendo ao Joomla. A escolha por uma ferramenta deste tipo teve em conta as facilidades que proporciona ao desenvolvimento de soluções que envolvem a publicação de websites com diversos tipos de utilizadores, exigindo pouco conhecimento técnico para a sua gestão na fase de manutenção das aplicações. Deste modo, poderá facilitar o trabalho dos profissionais de saúde ou de outros que sejam responsáveis pela sua administração. Na Fig. 4 apresentamos a página de entrada da plataforma. IV.

TRABALHO FUTURO

A ideia principal do projeto cuid@Web foi intervir de forma inovadora no apoio aos cuidadores informais, através do desenvolvimento de uma plataforma Web para emergir e estimular comunidades virtuais destes cuidadores, geridas por profissionais de saúde. Assim, a partir do domicílio, utilizando

CISTI 2015 | 264

a internet, os cuidadores informais poderão obter informação, apoio e aconselhamento, com efeitos previsíveis na redução da sobrecarga associada ao desempenho do papel e na melhoria dos cuidados que prestam às pessoas dependentes.

perspetivamos por um lado, desenvolver uma versão mobile desta plataforma, por outro lado desenvolver apps que possam apoiar e facilitar tarefas que fazem parte do quotidiano do cuidador informal (e.g., notificar datas de consultas, notificar/esclarecer exames médicos e medicação a ministrar). AGRADECIMENTOS Agradecemos aos alunos e docentes de Enfermagem e Informática que participaram nas reuniões de levantamento e análise de requisitos e que contribuíram com sugestões para o desenvolvimento do protótipo Cuida@Web. REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3] [4] [5] [6] [7] [8]

Figura 4

Página de entrada do Cuida@Web

O protótipo apresentado encontra-se em desenvolvimento e irá ser avaliado pelos atores (cibernautas, cuidadores informais, profissionais de saúde e administradores da plataforma), procedendo-se depois às alterações necessárias. Logo que se consiga uma versão aceitável, pretende-se proceder à sua divulgação e promoção junto de um grupo alargado de cuidadores informais e de um grupo de profissionais de saúde da Região Autónoma dos Açores. É nossa intenção avaliar o impacto, a satisfação e a utilidade do uso da plataforma por parte da comunidade virtual que a integra, ou seja, os cuidadores informais que justificam a necessidade deste produto e os profissionais de saúde que lhes prestam apoio. O uso generalizado dos dispositivos móveis, quer em contexto doméstico ou organizacional, tem provocado um interesse crescente pelo desenvolvimento de aplicações móveis com novas soluções para responderem a necessidades já conhecidas ou a novas necessidades e requerendo novas abordagens para o seu desenvolvimento [16]. Nos ambientes móveis há que considerar a elevada variedade de equipamentos e de sistemas operativos, bem como novas abordagens ao desenho e interação com os utilizadores [17]. Assim,

[9] [10]

[11]

[12] [13] [14] [15] [16] [17]

Ducharme, F.; Trudeau, D. (2002). Qualitative Evaluation of a stress Management intervention for Elderly Caregivers at Home: a Constructivist Approach. Issues in Mental Health Nursing, 23, 691-713. Figueiredo, D. (2007). Cuidados familiares ao idoso. Lisboa: Climepsi. Hoffmann, F., Rodrigues, R. (2010). Informal carers: who takes care of them? Policy Brief April 2010 European Centre for social policy and research. Andrade, C. (2009). Transição para prestador de cuidados. Sensibilidade aos cuidados de enfermagem. Pensar Enfermagem, 13 (1), 61-71. Qualls, S., Zarit, S. (2009). Aging families and caregiving. New Jersey: Wiley and Sons. Andrade, C. (2013). Membro da família prestador de cuidados. Modelo para a ação profissional facilitador do desempenho do papel. Tese de Doutoramento, Universidade de Lisboa. Plano Nacional de Saúde 2012-2016, 3.3 Eixo estratégico Qualidade em Saúde. Garbin, H.; Guilam, M., Neto, A. (2012). Internet na promoção da saúde: um instrumento para o desenvolvimento de habilidades pessoais e sociais. Physis Revista de Saúde Colectiva, 22 (1), 347 363. Moreira, P., Pestana, C. (2012). Saúde Web 2.0 e comunicação em aúde: a participação em comunidades virtuais em Portugal. Revista de Comunicación y Salud, 2 (2), 47-62. Pestana, S. (2010). Saúde Web 2.0 O papel das comunidades virtuais de doentes na área da saúde: um estudo de caso para Portugal. Dissertação de Mestrado em Estatística e Gestão de Informação apresentada ao ISEGI/ Universidade Nova de Lisboa Guilherme, I. T. (2013). Apoio a doentes e cuidadores em comunidades virtuais de saúde. O caso da comunidade online ELA Portugal. Dissertação de Mestrado em Audiovisual e Multimédia apresentada ao Instituto Politécnico de Lisboa - Escola Superior de Comunicação Social Pressman, R. (2014). Software Engineering: A Practitioner's Approach. 8ª edição. McGraw-Hill Science/Engineering/Math M. Fowler, UML Distilled: A Brief Guide to the Standard Object MySQL,http://www.mysql.com Joomla, http://www.joomla.org Laudon K, Laudon, J. (2015). Management Information Systems: Managing the Digital Firm. 14ª edição. Prentice-Hall Fling, B. (2009). Mobile Design and Development: Practical concepts and techniques for creating mobile sites and web apps. O'Reilly Media.

CISTI 2015 | 265

Plataforma Unidose para Lares Dose Plaform for Elderlies Homes David Ferreira Lopes Escola Superior de Tecnologia e Gestão do Instituto Politécnico de Leiria, 2411-901 Leiria, Portugal [email protected]

Nuno Alexandre Ribeiro Costa

António Manuel de Jesus Pereira Centro de Investigação de Informática e Comunicações, Escola Superior de Tecnologia e Gestão do Instituto Politécnico de Leiria, 2411-901 Leiria, Portugal INOV INESC INOVACAO Instituto de Novas Tecnologias P2411-901 Leiria, Portugal [email protected]

Centro de Investigação de Informática e Comunicações, Escola Superior de Tecnologia e Gestão do Instituto Politécnico de Leiria, 2411901 Leiria, Portugal [email protected]

Resumo A esperança média de vida tem aumentado devido às melhorias que se têm verificado nos serviços de saúde e pela evolução da medicina levando a um envelhecimento da população mundial. As famílias com vidas cada vez mais preenchidas e atarefadas não conseguem prestar o auxílio e o apoio necessário aos idosos levando estes a frequentar cada vez mais Lares e Centros de dia para idosos. Isto leva a que exista uma enorme responsabilidade pela saúde dos idosos por parte dos lares que os acolhem sobretudo ao nível da medicação, delegando grandes responsabilidades a funcionários da instituição. Os funcionários como seres humanos erram, podem errar, haver negligência ao darem a toma de medicação aos idosos. Cada vez mais os idosos têm menos capacidades financeiras devido a situação económica do país e alguns acabam mesmo por ter que deixar a medicação para sobreviverem. A Plataforma Unidose para Lares (PUL) é uma solução para tentar contrariar ou resolver estes problemas. É possível utilizar o sistema Unidose, que permite a venda dos comprimidos à unidade torando-se mais económico e também fazendo a prevenção da toma de medicamentos para não permitir negligencias nem faltas de tomas. Com a utilização da plataforma as vidas dos idosos e funcionários de lares vão ficar mais calmas, com menos preocupações, melhorando assim a qualidade de vida destes. Palavras Chave - gerontotecnologia; Unidose; Cuidados Saúde; Computação na medicina Abstract With the increased improvements in healthcare, life expectancy has also increased. This has led to aging of the world's population. Families often have busy lives and do not have the time to give the elderly the support they need, taking these attending more and more households. The households are responsible for the medication, delegating greater responsibilities to employees. This leads to exist a huge responsibility for the health of elderly by part of the homes that host them. The homes that receive the elderly are responsible for the medication of them, delegating big responsibilities to the employees of the institution. They as human beings could make mistakes, may have negligence in giving the medication or even do not give it to them. Even more of them have less financial capabilities due by the country economic situation and often they have to let the medication for surviving. The Unidose Platform for Homes (UPH) come as a solution to counter and resolve this problems. It

is possible to use the Unidose system which allows the medication sale by unit become more economical and also doing the prevention of taking the medication for not allowing negligence or shortages of takes. With the utilization of the platform the elderly lives and employees of the homes will stay much calmer, with less preoccupations improving their quality of life Keywords computing

gerontotechnology; dose; health care; medical

I.

INTRODUÇÃO

O número de pessoas idosas tem vindo a aumentar ao longo dos anos devido ao aumento da esperança média de vida. Por outro lado, a rotina dos familiares torna impossível a prestação de auxílio e apoio necessário aos idosos, acabando estes por ficarem sozinhos ou irem para um lar de idosos. Aliado à idade, existem complicações na saúde dos mais velhos, que faz com que estes tenham de tomar medicação, ficando os lares com a responsabilidade dar medicação aos utentes. No mercado de Portugal não existe nenhuma plataforma capaz de gerir dispensas de medicamentos de forma automática aliada a um sistema de automação, capaz de responder as necessidades exigentes e precisas para este problema. Para completar esta plataforma, existe a necessidade da criação de um serviço de dispensa de medicamentos mediante as ordens da plataforma gestora de todo o processo de medicação baseando-se nas prescrições médicas. Este sistema tem como finalidade a automatização da distribuição de medicamentos consoante ordens vindas da plataforma, com a segurança de que não existam erros na seleção dos medicamentos. O sistema conta com diversos serviços, desde da comunicação das prescrições médicas para a Plataforma, com a comunicação via rede móvel (GSM) aos responsáveis, ou mesmo uma plataforma web para que haja interação entre os

CISTI 2015 | 266

familiares dos utentes e a plataforma, aliando-se a um equipamento de armazenamento e distribuição de medicamentos de forma unitária.

sobredosagem. A maior desvantagem desta solução é a restrição a um único utente.

A utilização do Sistema de Unidose de Medicamentos Nacional [1][2] que no momento não é adotado pela maioria das farmácias e centros hospitalares, sendo ainda um projetopiloto, é uma mais-valia, pois irá potenciar o crescimento deste sistema de Unidose e vingar a nível nacional.

Para uma utilização hospitalar podem ser abordados 2 sistemas gerais de dispensadores. Um dispensador central que envia a dosagem para outros locais dentro do hospital através de condutas [6]. Este sistema requere uma preparação manual mas tem a vantagem de aumentar a velocidade de entrega dos medicamentos.

Usar este sistema de Unidose trará vantagens para todas as partes do sistema. Os utentes não necessitam de acarretar com os custos de uma embalagem completa quando necessitam de uma pequena porção, e para os intervenientes que vendem a medicação terão um maior controlo sobre os medicamentos e quantidade que necessitam ter em stock.

Uma outra abordagem é um dispensador local [7] em que contem uma quantidade finita de medicamentos e de recipientes. Para efetuar a dispensa é necessário colocar credenciais de acesso restringindo o acesso. Em contra partida não contém nenhum sistema de apoio as dosagens de medicamentos.

A PUL, em larga escala, tem a capacidade de servir para um centro hospitalar, no sentido que os enfermeiros deixam de ter a responsabilidade de saber a prescrição de cada utente. Desta forma é possível que, nos dias em que os enfermeiros estão de folga, ou que estejam a ser substituídos por outros enfermeiros, possam de uma forma clara, cómoda e responsável saber a prescrição de cada utente sem erros por neglicência dos enfermeiros. Através da integração no centro hospitalar, é possível armazenar no histórico do utente a tomas e as referencias dos medicamentos, assim como auxiliar o pessoal de enfermagem relativamente á toma de medicamentos por parte dos utentes.

A maioria dos dispensadores não possui uma plataforma de apoio. Apenas trazem consigo um sistema de configuração dos medicamentos através de um painel para configuração da dispensa dos mesmos.

Na secção seguinte será apresentado o trabalho relacionado. Na secção 3 é apresentada e detalhada a arquitetura da solução da Plataforma Unidose para Lares (PUL), bem como os prós e contras e implicações que a utilização deste sistema pode trazer. Na secção 4 são apresentadas as conclusões do trabalho. II.

ESTADO DA ARTE

Continuamente existe a necessidade de progredir na área da medicina e na qualidade de serviço prestado aos utentes. Os problemas de toma da medicação continuam a existir e, nesse sentido, cada vez mais têm sido criadas soluções para minimizar erros. Existem soluções que se focam só na dispensa automática dos medicamentos ou no alerta da toma da medicação. Existem também soluções orientadas para um uso mais doméstico, tendo um menor espaço armazenamento [5]. Existem ainda sistemas de alerta com suporte de prescrições mas que só permitem fazer a gestão de um único utente. A solução descrita em [3], apresenta uma ferramenta de agendamento e alerta das dosagens, baseando-se nas prescrições médicas. Esta ferramenta regista se o utente tomou a dosagem consoante a interação com a mesma. No caso ser prescrito dosagens de novos medicamentos a ferramenta ajusta o agendamento das dosagens em tempo real.

Ao contrário destes sistemas, a PUL inclui uma gestão da medicação desde a prescrição até à toma do medicamento, inclui o registo toda a informação e suporta vários utentes. É possível ainda a gestão do stock e alertas aos responsáveis pela próxima medicação a ser administrada. III.

ARQUITETURA

A PUL é responsável pela gestão dos responsáveis pela administração dos medicamentos, pelos utentes e pela gestão da prescrição estabelecida pelo médico de cada utente, doseando automaticamente o Dispensador Unidose. De uma forma automática, a plataforma responde a um problema existente no cotidiano dos lares de idosos: a responsabilidade da dosagem diária que acarreta grandes problemas quando esta é feita em excesso, esquecimento por parte do responsável, troca dos medicamentos ou até a falta de cumprimento dos horários de toma. A plataforma é constituída por várias entidades responsáveis pelas várias funcionalidades. De forma a criar um sistema centralizado permitindo um acesso em qualquer ponto, existe um servidor que centraliza as aplicações e as disponibiliza na rede local do lar. Para manter sempre as prescrições atualizadas, a plataforma obtém as prescrições eletróncias [8] via internet da plataforma do ministério da saúde. A partir desta informação, o sistema irá gerar uma sugestão do horário das dispensas dos medicamentos para cada utente. Para alertar os responsáveis de uma forma eficaz, a plataforma dispõe de um módulo de envio de mensagens escritas (Short Message Service (SMS)).

A solução descrita em [4], apresenta um sistema inteligente na dosagem. Para evitar erros esta solução utiliza as prescrições e regista as dosagens que efetua, não permitindo a existência de

CISTI 2015 | 267

Os postos que tiverem ligados a um dispensador automático são acrescidos com videovigilância para um maior controlo na dispensa dos medicamentos. Sendo uma tarefa de muita responsabilidade e que qualquer erro pode trazer consequências graves é necessário existir um controlo mais exigente. Por isso, a videovigilância permitirá salvaguardar tanto os idosos como os responsáveis. A videovigilância fará uso de uma câmara IP, ou mesmo de uma webcam ligado ao posto de trabalho. A câmara é ativada no momento em que o utilizador tenta autenticar-se na aplicação, de modo a registar com a respetiva hora, o utilizador que está a operar com a máquina. No momento da dispensa é também ativado o sistema de videovigilância que registará o funcionário que está a receber a dosagem. Figure 1. Arquitetura da Plataforma

A. Módulo GSM Este módulo é configurado com a antecedência necessária para alertar o responsável pela administração dos medicamentos, enviando um SMS detalhado com os nomes dos utentes que irão tomar a medicação, incluindo a hora da mesma.

O vídeo capturado pelo posto é cifrado e transmitido em tempo real para o servidor da plataforma, sobre o protocolo TCP/IP. Assim é garantido a confidencialidade dos dados armazenados no servidor.

B. Portal Web No sentido dos familiares poderem ter informações e dados relativos ao utente, a plataforma implementa um serviço web onde alojará um portal. Este portal contem os dados relacionados com a administração da medicação por parte do utente e também observações ou ocorrências que sejam escritas por algum funcionário. C. Postos de trabalho A plataforma é multiposto, isto é, poderá haver vários postos dentro da mesma rede física. Estes postos servirão para gestão da informação dos utentes, para a dispensa de medicamentos e para gerir stocks de medicamentos. D. Dispensador Automático O dispensador é um equipamento ligado a um posto de trabalho e será a partir do mesmo que a ordem de dispensa irá para o equipamento dispensador. Quando o equipamento recebe a ordem para efetuar a dosagem dos medicamentos, inicia assim o processo de dosagem. Para cada comprimido efetua sempre a mesma ordem de trabalho, manda cair o medicamento verifica se caiu, para evitar que a dosagem saia errada, caso não tenha havido algum problema indica o posto que a dosagem está pronta e desconta os medicamentos do stock. Esta dosagem irá ser dispensada para um recipiente. E. Segurança Ao nível da segurança, todos os postos disponibilizam um leitor de cartões do cidadão para os utilizadores efetuarem a autenticação no posto introduzindo o cartão no leitor e o PIN de certificação associado ao cartão. Como o cartão do cidadão é intransmissível, garante-se que existirá uma menor transmissão de credenciais entre funcionários.

Figure 2. Envio de vídeo para o servidor

IV.

ANÁLISE

A Plataforma Unidose juntamente com o Dispensador Unidose vem trazer ao mercado uma solução de gestão de utentes e medicação. É uma realidade que os medicamentos em lares de idosos ou centros de dia são administrados por vários funcionários do estabelecimento. Na maior parte das vezes estes também desempenham outras funções. Para controlar a toma da medicação tem que haver uma comunicação entre os vários funcionários e um registo manual, o que não garante que seja comunicado a todos os funcionários que administram os medicamentos aos utentes. Com a utilização da plataforma este problema é resolvido de uma forma muito cómoda e simples já que consoante a prescrição faz a dosagem de medicamentos automática guardando o registo de quando foi efetuada a administração. Como os funcionários executam outas funções é natural que existam algumas tomas de medicamentos que são esquecidas. Com a utilização da plataforma deixa de ser um problema porque utiliza um sistema de alerta via SMS para o funcionário e este é alertado para efetuar a administração dos medicamentos.

CISTI 2015 | 268

O erro humano é um problema grave que por vezes acontece. Para prevenir este problema tem que haver um controlo muito rigoroso nos medicamentos em que o utente tem que tomar, quando, qual a dosagem e se alguém já administrou esses medicamentos ao utente naquele período. Mesmo com muito controlo existe sempre a hipótese do ser humano errar. Com a utilização da plataforma, o registo da toma da medicação está centralizada, seguindo a prescrição de cada utente, não permitindo que haja dosagens erradas de medicamentos. Este sistema traz inúmeras vantagens: a facilidade de obtenção das prescrições de cada utente, a salvaguarda de um registo de administrações efetuadas (podendo os familiares terem acesso aos dados à distância), o controlo de stocks de medicamentos, centralização da informação dentro da instituição, não havendo a preocupação na recolha de todos os dados. Para além disto, utilizando o sistema unidose, os utentes não têm que suportar os custos de compra de embalagens de medicamentos, pagando apenas os medicamentos que consumirem. Contudo, a dispensa Unidose traz consigo também uma enorme responsabilidade, ou seja, a dispensa automática de medicamentos. Devido a esta capacidade e à comodidade que os responsáveis vão sentir, estes podem deixar de ter atitudes defensivas, no sentido em que confiam no dispositivo dispensador e poderem passar a não conferir a dosagem dispensada. V.

CONCLUSÕES

Os atuais sistema dispensadores de medicamentos não permitem a gestão de dosagens individuais a uma escala de vários utentes de uma determinada instituição [4][5][6][7]. Cada vez mais é uma realidade que os idosos não têm capacidades económicas para adquirirem medicamentos. Um sistema unidose traria imensas vantagens para estes, pois deixavam de necessitar de investir em embalagens completas de medicamentos, pagando apenas os medicamentos consumidos. O ser humano não é perfeito e com o cansaço e o stress do trabalho e do dia-a-dia acaba por cometer erros. Nesse sentido, existe uma grande necessidade de sistemas que apoiem e aliviem alguma responsabilidade e que baixem ou anulem os erros humanos que podem levar a fins trágicos. Com a solução que foi apresentada é possível que os responsáveis pela toma de medicação assumam outros cargos, ou, pelo menos, fiquem mais libertos da responsabilidade inerente à toma de medicamentos.

A informação circula numa rede partilhada, as questões de segurança tornaram-se evidentes. Foi necessário garantir que apenas funcionários autorizados têm acesso ao sistema, sendo que se trata de informação clínica especializada, sendo que nem todos os utilizadores têm formação para lidar com este tipo de informação. Mesmo dentro da instituição existem diferentes perfis de utilizador, desde o administrador até ao funcionário que estará a lidar diretamente com as medicações. Toda esta informação armazenada também foi alvo de algoritmia de cifragem, visto ser informação sensível, tanto os dados dos pacientes, como as imagens capturadas dos funcionários. A Plataforma Unidose para Lares, juntamente com o Dispensador Unidose, demonstrou que é uma solução inovadora, com imenso potencial e muito útil à sociedade, podendo adaptar-se a várias situações diferentes, corrigindo hábitos e precavendo situações de maior sensibilidade para com os utentes. VI.

TRABALHO FUTURO

A Plataforma Unidose não está fechada, pelo contrário, no futuro irá receber novas funcionalidades. Por exemplo, a gestão de stock passar a fazer os pedidos automaticamente à entidade que fornece os medicamentos, através de um protocolo de comunicação/interoperabilidade a ser definido em conjunto. Por outro lado, seria vantajosa a integração nos centros hospitalares, o que obrigará a um aumento do armazenamento por parte do dispensador, a uma adaptação para suporte de multipostos com dispensadores e a protocolos rígidos para acesso aos dados gerados pelos dispensadores. REFERÊNCIAS BIBLIOGRÁFICAS [1] [2] [3] [4] [5] [6] [7] [8]

Diário da República, 2.ª série N.º 214 5 de novembro de 2013 Diário da República, 2.ª série N.º 215 6 de novembro de 2013 Mei-Ying Wang; Tsai, P.H.; Liu, J.W.S.; Zao, J.K., "Wedjat: A Mobile Phone Based Medicine In-take Reminder and Monitor," Bioinformatics and BioEngineering, 2009 Pei-Hsuan Tsai; Tsung-Yen Chen; Chi-Ren Yu; Chi-Sheng Shih; Liu, J.W.S., "Smart Medication Dispenser: Design, Architecture and Implementation" 3 de Outubro de 2008 Tregilgas, H.R., " Pill dispenser", Patente US2943730 A 5 de julho de 1960 Kraft, T. L.; Rogers, L.W.; Hoskins, V.; Waters, L.; Meyers, R.; Reynolds, K.E.; Crader, S.S.; Loebig, D. US5502944 A 2 de Abril de 1996 McLaughlin, J.T. Medication dispenser station US4811764 A 14 de Março de 1989 N.º 96 18 de Maio de 2013 Diário da República, 1.ª série

CISTI 2015 | 269

1st Workshop on Quality of Life Information Systems

CISTI 2015 | 270

Data Mining e Sistemas de Apoio à Decisão em Aplicações Clínicas e Qualidade de Vida Data Mining and Decision Support Systems for Clinical Application and Quality of Life Mário Ferreira EEUM/DSI - Escola de Engenharia da Universidade do Minho e Centro ALGORITMI, Guimarães, Portugal [email protected]

Luís Paulo Reis EEUM/DSI - Escola de Engenharia da Universidade do Minho e Centro ALGORITMI, Guimarães, Portugal LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected]

Brígida Mónica Faria

Joaquim Gonçalves EST/IPCA Esc. Superior de Tecnologia/Instituto Politécnico do Cávado e do Ave LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected],

Álvaro Rocha DEI/UC Departamento de Engenharia Informática, Universidade de Coimbra, Coimbra, Portugal LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected]

Esc. Sup. de Tecnologia da Saúde do Porto / Inst. Politécnico do Porto, Portugal LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected]

ESTSP/IPP

Resumo O desenvolvimento de novas tecnologias, sistemas de informação, sistemas de apoio à decisão e algoritmos de predição de parâmetros clínicos utilizando aprendizagem computacional e data mining, abre um conjunto de novas perspetivas em muitas áreas da saúde. Neste contexto, apresenta relevância o conceito de Qualidade de Vida (QDV) no âmbito da saúde e a possibilidade de desenvolver Sistemas de Apoio à Decisão Clínica (SADC) que o utilizem. Através da expetativa individual, de bemestar físico, psicológico, mental, emocional e espiritual dos pacientes, variáveis discutidas e medidas na área de investigação de Qualidade de vida, pretende-se fazer um estudo dos dados para estabelecer correlações com dados laboratoriais, farmacêuticos, socioeconómicos, entre outros, obtendo conhecimento a nível de padrões comportamentais de doentes crónicos, alcançando uma série de dados confiáveis e de fácil acesso, capazes de potenciar o processo de tomada de decisão por parte das equipas médicas especializadas, na procura de melhorar os tratamentos e consequentemente a qualidade de vida relacionada com a Saúde de doentes crónicos. Neste artigo são estudados e comparados estudos relacionados que desenvolvem sistemas de apoio à decisão e predição na área clínica, com ênfase para os estudos na área da qualidade de vida. Palavras Chave Qualidade de Vida, Data Mining, Predição, Sistemas de Apoio à Decisão Clínica. Abstract The development of new technologies, information systems, decision support systems and clinical parameters prediction algorithms using machine learning and data mining,

opens a new outlook in many areas of health. In this context, the concept of Quality of Life (QOL) has relevance in health and the possibility of integrate this measure in developing systems Decision Support Clinic (SADC). Through individual expectation of physical well-being, psychological, mental, emotional and spiritual patient, clinical variables and quality of life assessment, we intend to make a study of data to establish correlations with clinical data and pharmaceutical data , socio-economic factors, among others, for obtaining knowledge in terms of behavioral patterns of chronically ill, reaching a number of reliable data and easily accessible, capable of enhancing the decision-making process on the part of specialist medical teams, seeking to improve treatments and consequently the quality of life related to health chronically ill. This paper studied and compared related studies that develop systems for decision support and prediction in the clinical area, with emphasis on studies in the area of quality of life. Keywords - Quality of Life, Data Mining, Prediction, Decision Support Clinical Systems

I.

INTRODUÇÃO

A. Motivação A Indústria da Saúde acompanhou com especial atenção a crescente inovação tecnológica, a nível das Tecnologias e Sistemas de Informação, com capacidade para controlar e armazenar os dados produzidos nas tarefas diárias de todos os

CISTI 2015 | 271

seus intervenientes, com o intuito de melhorar a saúde pública e a assistência aos seus pacientes. O ambiente hospitalar atual gera um grande e complexo volume de dados nas diversas interações com os pacientes, na atribuição dos recursos hospitalares, no diagnóstico de doenças, nos registos eletrónicos de saúde, nos aparelhos médicos, entre outros. Este fator é potenciador da utilização de ferramentas especializadas em armazenamento e capazes de transformar dados em informação que influencie positivamente a tomada de decisões na prática clínica. O trabalho realiza-se em pareceria com a organização/empresa Optimizer. Esta organização é caracterizada pela sua visão vanguardista no mercado dos Sistemas de Informação, e através de um projeto inovador, pretende desenvolver um Sistema de Apoio à Decisão Clínica focado na avaliação da Qualidade de Vida de doentes oncológicos, denominado Quality of Life System. A organização pretende, através da avaliação dos índices de Qualidade de Vida, adquiridos através de questionários específicos dedicados ao efeito e devidamente inseridos no SADC, assim como através de informação adquirida através de todas as interações com os pacientes, fornecer às equipas médicas especializadas no tratamento de doenças oncológicas, informação fiável e rapidamente acessível, capaz de influenciar positivamente a tomada de decisão na prescrição de terapias, melhorando a Qualidade de Vida individual dos doentes oncológicos. O projeto pretende construir contributos científicos relevantes na combinação da área da Saúde, nomeadamente nas intervenções com doentes oncológicos e através da análise da Qualidade de Vida do paciente. Apresenta especial relevância as áreas de descoberta de conhecimento em bases de dados, mais concretamente, através da utilização de técnicas de data mining. O projeto completo apresenta os seguintes objetivos: Executar um estudo exaustivo de pesquisa do conceito de Qualidade de Vida e estudos relacionados com este conceito. Reunir um conjunto de dados, textos, imagens e vídeos significativos com conteúdo relacionado com a QDV. Desenvolver um estudo exaustivo de métodos de análise de dados que extraiam informação relevante para garantir uma melhor performance do SADC. Pretende-se ainda desenvolver uma integração da solução, com software capaz de cumprir todos os requisitos do SADC e analisar o impacto e a fiabilidade da solução desenvolvida, assim como a relevância dos resultados alcançados. Este artigo descreve essencialmente a investigação inicial realizada no trabalho com ênfase na definição e conceptualização do conceito de qualidade de vida e análise do estado da arte na definição de sistemas de apoio à decisão para a área clínica. O resto do artigo encontra-se organizado do seguinte modo. A secção 2 apresenta um estudo sobre o conceito de qualidade de vida e as suas várias vertentes. A secção 3 sistematiza e classifica trabalhos relacionados no âmbito dos sistemas de apoio à decisão para análise clínica e análise de dados clínicos.

Finalmente, na secção 4, apresentam-se as conclusões e perspetivas de desenvolvimento. II.

QUALIDADE DE VIDA

A. Perspetiva Histórica e Conceptual de QDV Apesar da sua popularização e da exploração entusiástica por investigadores, clínicos, economistas, administradores e políticos [7.10,16], não existe uma conceptualização universal para o termo Qualidade de Vida. Esse facto surge como tópico de discussão em diversos estudos [7,9,10,18,20,26], considerando ainda, o termo como uma combinação de perspetivas filosóficas, valores e princípios individuais, que segundo [20] poderá influenciar a técnica de avaliação adotada. Em 1994, a Organização Mundial de Saúde definiu Qualidade na vida, no contexto da cultura e do sistema de valores nos quais vive, em relação com os seus desejos, as suas normas e as suas inquietudes. É um conceito muito amplo, que pode ser influenciado de maneira complexa pela saúde física do indivíduo, pelo estado psicológico e pelo seu nível de independência, as suas relações sociais e as suas relações com [11]. [7] elucida algumas das contribuições relevantes para o estudo e evolução da das pessoas concordarão que Qualidade de Vida é um objetivo para afirmação com um pensamento apenas positivo relativo à medida da QDV. Frisa ainda algumas das primeiras preocupações na medida da QDV, como o facto de a Comissão do Presidente Eisenhower através do Relatório dos Objetivos Nacionais, em 1960, abordar a educação, a preocupação individual, o crescimento económico, a saúde na ótica do bemestar, e a defesa de um mundo livre, assim como o a preocupação retratada no discurso do Presidente Americano Lyndon Johnston não pode ser medido através do balanço dos bancos mas Identifica ainda na época de 1970 um crescente uso do termo na investigação social, assim como, o crescente uso do termo QDV em experiências de intervenção clínica, principalmente no campo da Oncologia, Reumatologia e Psiquiatria. B. Conceptualização de QDVRS Apesar de os termos Qualidade de vida e Qualidade de Vida Relacionada com a Saúde serem usados per mutavelmente para abordar a mesma temática, existem pontos discrepantes que os distinguem [20]. Enquanto, genericamente descrito no ponto anterior, Qualidade de Vida é um conceito amplo influenciado por fatores psicológicos, mentais, físicos e sociais individuais, QDVRS foca-se nos efeitos provocados por algum tipo de doença e no impacto do seu tratamento. Mais concretamente, QDVRS reflete a forma que um indivíduo encara e reage ao seu estado de saúde, englobando aspetos não relacionados com o tratamento médico, como fatores físicos, emocionais, mentais, e de bem-estar, assim como, desenvolver uma atividade profissional, a família, amigos e outras situações do quotidiano [20,26]. No estudo de [26] é caracterizado o conceito de QDVRS como sendo baseado no conceito de Saúde e de Qualidade de Vida, sendo influenciado pelas experiências, crenças, expetativas e perceções individuais,

CISTI 2015 | 272

enunciando que um bom estado de saúde é mais que uma ausência de doença ou debilidades, mas também uma completa sensação de bem-estar físico, mental e social. QDVRS é também considerado como um conceito multifacetado que contem aspetos positivos e negativos de Saúde. Os aspetos negativos apontados visam doenças e disfunções, enquanto os positivos abordam o sentimento de bem-estar mental e físico, pleno funcionamento, aptidão física, ajuste e eficiência da mente e do corpo [6]. É ainda adicionada por [6] a dinâmica do conceito resultante de experiências do passado, circunstancias do presente, e expetativas futuras. Sendo ainda explicitado que a perceção de QDVRS não está apenas dependente da capacidade física individual, mas está também relacionado com as preferências e prioridades da vida. C. Instrumentos de medida de QDVRS em Oncologia Para [22] a medida objetiva e precisa da QDVRS é imperiosa. Uma variedade de instrumentos tem sido desenvolvida com esse propósito, uma vez que um melhor conhecimento da QDVRS pode fornecer dados para uma tomada de decisão mais racional, quer para um individuo, quer para uma determinada população [22]. A área oncológica representa uma das áreas com maior interesse e utilidade na utilização de instrumentos de medida da QDVRS, uma vez que as doenças do foro oncológico e o seu tratamento tem um profundo impacto na vida dos pacientes [9]. A Organização Europeia para Pesquisa e Tratamento do Cancro enquadra-se como uma das organizações responsável pelo desenvolvimento de instrumentos de medida da QDVRS para a prática clínica, através de questionários como o EORTC QLQ-C30 ou do módulo específico para doentes oncológicos da cabeça e pescoço EORTC QLQ-H&N35 [2]. Os benefícios potenciais apontados em [2], pelo uso de questionários para avaliação de QDVRS referidos refletem-se na maior facilidade do paciente para descrever as suas queixas relativamente à doença e/ou tratamento, na disponibilização de avaliações aos aspetos psicossociais dos pacientes às equipas médicas, reforçar a ideia no paciente que a sua QDV está a ser levada em conta pela equipa médica e que facilitará a comunicação entre as partes, assim como através do preenchimento do questionário será obtida uma avaliação concisa e validade da QDV permitindo a avaliação por itens do questionário que poderá ser usada no reconhecimento de possíveis problemas que podem ser reportados à equipa médica. É transversal, quando são desenvolvidos estudos sobre a temática, a importância da medida da QDV, através de instrumentos objetivos (mais específicos) e subjetivos (mais genéricos). [7] aponta nos instrumentos mais objetivos a vantagem de não existirem tantos erros por parte do observador dos mesmos, mas refere o facto de não se preocuparem com os sentimentos dos visados. Já nos mais subjetivos, elucida o facto de se relacionarem com o julgamento das pessoas sobre a sua vida, destacando exemplos como a satisfação relativamente à atividade profissional, à saúde e moral. [16] apontam no seu estudo alguns dos instrumentos genéricos de medida mais utilizados no mundo: SicknessImpact Profile (SIP),

Nottingham Health Profile (NHP), McMaster Health Index Questionnaire (MHIQ), Rand Health Insurance Study (Rand HIS), The Medical Outcomes Study 36-Item Short Form Health Survey (SF-36), Avaliação da Qualidade de Vida da Organização Mundial da Saúde (WHOQOL-100). Focando ainda, o facto de este tipo de medida ser obtida através de questionários de base populacional, mais direcionados a estudos epidemiológicos, ao planeamento e à avaliação do sistema de saúde. A nível dos instrumentos mais específicos classifica-os como mais capazes de avaliar, de forma individual e específica, determinados aspetos da QDV, e atribui-lhes como principal característica o facto de medir alterações com maior sensibilidade, quer no historial quer após determinada intervenção, e pelo facto de se adaptarem a uma determinada situação ou população. Num contexto de QDVRS [10] desenvolvem um estudo sobre formas de estruturar e de melhor selecionar esses tipos de instrumentos para cada situação. Uma vez que os questionários EORTC QLQ-C30 e EORTC QLQ-H&N35 estão já implementados no SADC que este estudo pretende sustentar, é oportuno descrever as suas características principais: Questionário EORTC QLQ-C30 - O questionário EORTC QLQ-C30 tem como objetivo principal a sua utilização em ensaios clínicos internacionais na luta contra o cancro [17]. É composto por trinta itens, inseridos em cinco diferentes escalas funcionais física, emocional, desempenho, cognitiva e social três escalas de sintomas -fadiga, dor, náusea e vómito - seis itens para a avaliação de sintomas ou problemas adicionais (dispneia, perda de apetite, insónia, dificuldades financeiras, obstipação e diarreia) e uma escala global de QDV. Todas as escalas e itens variam numa pontuação dos 0 aos 100, sendo que à exceção das escalas funcionais e da escala global de QDV, em todas as outras escalas e itens simples, uma pontuação elevada indica pior QDV [1,2,18]. Questionário EORTC QLQ-H&N35. O questionário EORTC QLQ-H&N35 foi desenvolvido para o módulo específico de doentes oncológicos da cabeça e pescoço. Compreende trinta e cinco perguntas sobre sintomas e efeitos colaterais do tratamento, função social, imagem corporal e sexualidade. Incorpora sete escalas de sintomas (dor, deglutição, paladar e olfato, fala, alimentação em público, contacto social e sexualidade) e onze itens simples. Para todas as escalas e itens simples uma pontuação elevada significa pior QDV. Os dados obtidos correspondem ao estado do doente durante a última semana [17,18]. III.

SISTEMAS DE APOIO À DECISÃO CLÍNICA

Na tabela 1 é apresentado o resultado relativo aos trabalhos encontrados no que diz respeito a estudos na área do apoio à decisão clínica e análise de dados clínicos que permitam a implementação desse tipo de sistema.

CISTI 2015 | 273

TABELA I

ARTIGOS DE SISTEMAS DE APOIO À DECISÃO CLÍNICA (PUBMED)

Título / Referência

Sumário

Área de Intervenção

Comparison analysis of data mining models applied to clinical research in traditional Chinese medicine [30] Data mining of solubility parameters for computational prediction of drug-excipient miscibility [3]

Facilitar a seleção de modelos de análise de dados na prática clínica relacionada com a medicina tradicional chinesa

Diagnóstico e Tratamento

Utilização de técnicas de análise de dados para melhorar a precisão nas tarefas de diganóstico

Diagnóstico

Improving diagnostic accuracy using agentbased distributed data mining system [24] Using methods from the data-mining and machine-learning literature for disease classification and prediction: a case study examining classification of heart failure subtypes [4] HPVdb: a data mining system for knowledge discovery in human papillomavirus with applications in T cell immunology and vaccinology [29] An overview of data mining algorithms in drug induced toxicity prediction [19] Data mining in radiology [14]

Prevalence of heart failure signs and symptoms in a large primary care population identified through the use of text and data mining of the electronic health record [25]

Noninvasive diagnosis of liver fibrosis: utility of data mining of both ultrasound elastography and serological findings to construct a decision tree [27]

The use of data-mining to identify indicators of health-related quality of life in patients with irritable bowel syndrome [21] Data mining for wearable sensors in health monitoring systems: a review of recent trends and challenges [5] Exploring factors associated with pressure ulcers: a data mining approach [23]

Data mining in healthcare and biomedicine: a survey of the literature [28] Drug safety data mining with a tree-based scan statistic [15] Prediction of survival in thyroid cancer using data mining technique [12]

Applying data mining techniques to improve diagnosis in neonatal jaundice [8]

Using data mining to detect health care fraud and abuse: a review of literature [13]

Previsão da miscibilidade dos excipientes de um fármaco

Utilização de técnicas de análise de dadospara classificação e previsão de doenças

Desenvolvimento de uma framework para extração de conhecimento em papiloma vírus humano com aplicação em imunologia de células T e vacinologia. Utilização de algoritmos de análise de dados para Previsão da toxicidade induzida por fármacos Análise de dados relacionados com radiologia para facilitar processo de tomada de decisão. Perceber a prevalência de sinais e sintomas de insuficiência cardíaca através de técnicas de análise de dados Estudo para melhorar o diagnóstico e avaliação da fibrose hepática através de árvores de decisão

Descoberta da influência de fatores sociodemográficas na avaliação de Qualidade de Vida Relacionada com Saúde

Estudo com vista a fornecer uma visão geral de técnicas de análise de dados aplicadas a dados de sensores wearable no domínio da saúde Utilização de técnicas de análise de dados sobre informações demográficas e medidas médicas para prever Úlceras de Pressão

Importância da análise de dados para a área da Saúde e a bio medicina Detetar eventos adversos causados por fármacos, pela utilização da técnica de análise de dados e Árvores de Decisão Previsão de sobrevivência relativamente ao Cancro da Tiróide, através da utilização Aplicação de Técnicas de análise de dados para melhorar o diagnóstico da icterícia neonatal

Estudo da utilização de análise de dados para deteção de fraudes no sistema de saúde

CISTI 2015 | 274

Farmácia

Insuficiência Cardíaca

Tarefas de Análise de Dados Não estão claramente identificadas

Técnicas e modelos de Análise de Dados Não estão claramente identificadas

Previsão e Descrição

K-means Clustering

Previsão e Classificação

Classification Trees, Random Forest, Support Vector Machines (SVMs)

Não estão claramente identificadas

Diagnóstico e Prognóstico de Cancros

Não estão claramente identificadas

Radiologia

Previsão e Descrição

Não estão claramente identificadas

Não estão claramente identificadas

Previsão e Descrição

Neural Networks (NNs) , SVMs, K-mean clustering

Insuficiência Cardíaca

Descrição

Text Mining

Diagnóstico

Classificação

Decision Tree

Síndrome de Intestino Irritável

Classificação

Sensores Wearable

Classificação.

Úlceras de Pressão

Previsão

Farmácia; Tratamento

Estudo Geral na área médica

Previsão e Classificação

Doenças cardiovasculares

Previsão

Tratamento

Diagnóstico Fraude

Previsão

Classificação

Não estão claramente identificadas

Decision Trees

Artificial Neural Network, Classification Tree, Logistic Regression Decision Tree, NNs, SVMs, Association Rules, Bayesian Network, Logistic Regression Logistic regression, Decision trees, Random forests Não estão claramente identificadas Decision Tree

Artificial Neural Network

Decision trees, Neural networks Não estão claramente identificadas

IV.

CONCLUSÕES

[6]

Após a exploração de diversos contributos científicos relativos á área de Qualidade de Vida e dos Sistemas de Apoio à Decisão na área clínica, é reforçada a noção e a necessidade encontrada pela organização DFBR (nome removido para permitir revisão cega) no desenvolvimento de um Sistema de Apoio à Decisão Clínica, com o intuito de proceder a avaliações nos índices de Qualidade de Vida Relacionada com a Saúde. Relativamente á temática Qualidade de Vida foi notório, durante o desenvolvimento da revisão de literatura, que a sua definição apesar de ambígua e subjetiva, aborda estados e expetativas de bem-estar físico, emocional, espiritual, psicológico e físico, num ponto de vista individual, e que estendido ao termo Qualidade de Vida Relacionado com Saúde retrata ainda o modo em que o individuo é afetado pela doença e pelo consequente tratamento. Foi ainda possível perceber de que forma os instrumentos de medida, como o QLQ-C30 e o QLQ-H&N35, atuam e as escalas que adotam. Todo este conhecimento foi muito importante na fase de Compreensão do Negócio. Na revisão de literatura desenvolvida sobre Sistemas de Apoio à Decisão na área clínica, foi reforçado o crédito a este tipo de abordagens, que desempenham com eficácia e eficiência a extração de conhecimentos de grandes repositórios de dados, através de técnicas que compõe o seu processo. É de frisar, que embora existam muitas aplicações de técnicas de sistemas de apoio à decisão na medicina e em aplicações clínicas, e muitos estudos sobre o conceito de QDVRS e a sua forma de cálculo, os estudos científicos e, sobretudo, a aplicação prática de Sistemas de Apoio à Decisão Clínica na área do incremento da qualidade de vida são ainda muito escassos AGRADECIMENTOS Este trabalho foi financiado pelo projeto QoLis - Quality of Life Platform Project, Nº2013/34034 QREN SI I&DT, (NUP, NORTE-070202-FEDER-034Ú34). Os autores também agradecem aos projetos estratégicos LIACC (PEst-OE/EEI/ UI0027/2015) e Centro ALGORITMI (PEst-C/EEI/UI0319/ 2015)

REFERÊNCIAS B IBLIOGRÁFICAS [1]

[2]

[3] [4]

[5]

A. Simon Pickard, James W. Shaw, Hsiang-Wen Lin, Peter C. Trask,Neil Aaronson,Todd A. Lee, David Cella. (2009). A Patient-Based Utility Measure of Health for Clinical Trials of Cancer Therapy Based on the European Organization for the Research and Treatment of Cancer Quality of Life Questionnaire. Value in Health, 12. Alexandra Oliveira, Pedro L. Ferreira, Bárbara Antunes, Francisco L. Pimentel. (2011). OnQol: Electronic device to capture QoL data in oncology: Difference between patients 65 years or older and patients younger than 65 years of age. Journal of Geriatric Oncology, 253-258. Alhalaweh A, Alzghoul A, Kaialy W. (2014). Data mining of solubility parameters for computational prediction of drug-excipient miscibility. Drug development and industrial pharmacy, 904-909. Austin PC, Tu JV, Ho JE, Levy D, Lee DS. (2013). Using methods from the data-mining and machine-learning literature for disease classification and prediction: a case study examining classification of heart failure subtypes. Journal of clinical epidemiology, 398-407. Banaee H, Ahmed MU, Loutfi A. (2013). Data mining for wearable sensors in health monitoring systems: a review of recent trends and challenges. Sensors, 13(12), 17472-17500.

[7] [8] [9] [10] [11] [12]

[13]

[14] [15]

[16] [17]

[18] [19] [20] [21] [22] [23] [24] [25]

[26]

Bowling, A. (2001). MEASURING DISEASE: A review of diseasespecific Quality of Life Measurement Scales (Second Edition ed.). Buckingham . Philadelphia: Open University Press. Farquhar, M. (1995). Elderly people's definitions of Quality of Life. Pergamon, 41(10), 1439-1446. Ferreira D, Oliveira A, Freitas A. (2012). Applying data mining techniques to improve diagnosis in neonatal jaundice. BMC medical informatics and decision making, 143. Gonçalves, J. J. (2012). Plataforma para avaliação da Qualidade de Vida Relacionada com a Saúde em Oncologia. Porto: Universidade Fernando Pessoa. Gordon H. Guyatt, David H. Feeny, Donald L.Patrick. (1993). Measuring Health-related Quality of Life. Annals of Internal Medicine, 118, 622-62. Group WHOQOL. (1994). Development of the WHOQOL: Rationale and current status. International Journal of Mental Health, 23(3), 24-56. Jajroudi M, Baniasadi T, Kamkar L, Arbabi F, Sanei M, Ahmadzade M. (2014). Prediction of survival in thyroid cancer using data mining technique. Technology in cancer research and treatment, 13(4), 353359. Joudaki H, Rashidian A, Minaei-Bidgoli B, Mahmoodi M, Geraili B, Nasiri M, Arab M. (2014). Using data mining to detect health care fraud and abuse: a review of literature. Global journal of health science, 7(1), 194-202. Kharat AT, Singh A, Kulkarni VM, Shah D. (2014). Data mining in radiology. The indian journal of radiology & imaging, 24, 97-102. Kulldorff M, Dashevsky I, Avery TR, Chan AK, Davis RL, Graham D, Platt R, Andrade SE, Boudreau D, Gunter MJ, Herrinton LJ, Pawloski PA, Raebel MA, Roblin D, Brown JS. (2013). Drug safety data mining with a tree-based scan statistic. Pharmacoepidemiology and drug safety, 22(5), 517-523. Maryane Oliveira Campos & João Felício Rodrigues Neto. (2008). Qualidade de Vida: um instrumento para a promoção de saúde. Revista Baiana de Sáude Pública. Michael Koller, Neil K. Aaronson, Jane Blazeby, Andrew Bottomley, Linda Dewolf, Peter Fayers, Colin Johnson,John Ramage, Neil Scott, Karen West. (2007). Translation procedures for standardised quality of life questionnaires: The European Organisation for Research and Treatment of Cancer (EORTC) approach. European Journal Of Cancer, 43, 1810-1820. N. Heutte, L. Plisson, M.Lange, V.Prevost, E. Babin. (2014). Quality of Life tools in head and neck. European Annals of Otorhinolaryngology, Head and Neck diseases, 131, 33-47. Omer A, Singh P, Yadav NK, Singh RK. (2014). An overview of data mining algorithms in drug induced toxicity prediction. Mini reviews in medical chemistry, 10, 345-354. Pais-Ribeiro, J. (2004). Quality of life is a primary end-point in clinical settings. Clinical Nutrition, 121-130. Penny KI, Smith GD. (2012). The use of data-mining to identify indicators of health-related quality of life in patients with irritable bowel syndrome. Journal of clinical nursing, 21, 2761-2671. Pimentel, F. L. (2003). Qualidade de Vida do Doente Oncológico. Porto: De autor. Raju D, Su X, Patrician PA, Loan LA, McCarthy MS. (2015). Exploring factors associated with pressure ulcers: a data mining approach. International journal of nursing studies, 52(1), 102-111. S., S. (2013). Improving diagnostic accuracy using agent-based distributed data mining system. Informatic for health & social care, 182195. Vijayakrishnan R, Steinhubl SR, Ng K, Sun J, Byrd RJ, Daar Z, Williams BA, deFilippi C, Ebadollahi S, Stewart WF. (2014). Prevalence of heart failure signs and symptoms in a large primary care population identified through the use of text and data mining of the electronic health record. Journal of cardiac failure, 459-464. Xiao-Jun Lin, I-Mei Lin, Sheng-Yu Fan. (2013). Methodological issues in measuring health-related quality of life. Tzu Chi Medical Journal, 25, 8-12.

CISTI 2015 | 275

[27] Yada N, Kudo M, Kawada N, Sato S, Osaki Y, Ishikawa A, Miyoshi H, Sakamoto M, Kage M, Nakashima O, Tonomura A. (2014). Noninvasive diagnosis of liver fibrosis: utility of data mining of both ultrasound elastography and serological findings to construct a decision tree. Oncology, 63-72. [28] Yoo I, Alafaireet P, Marinov M, Pena-Hernandez K, Gopidi R, Chang JF, Hua L. (2012). Data mining in healthcare and biomedicine: a survey of the literature. Journal of medical systems, 36(4), 2431-2448.

[29] Zhang G, Riemer AB, Keskin DB, Chitkushev L, Reinherz EL, Brusic V. (2014). HPVdb: a data mining system for knowledge discovery in human papillomavirus with applications in T cell immunology and vaccinology. Database: the journal of biological databases and curation. [30] Zhao Y, Xie Q, He L, Liu B, Li K, Zhang X, Bai W, Luo L, Jing X, Huo R. (2014). Comparsion analysis of data mining models applied to clinical research in traditional Chinese medicine. Journal of Traditional Chinese Medicine, 627-634.

CISTI 2015 | 276

Data Mining and Electronic Devices applied to Quality of Life Related to Health Data Joaquim Gonçalves

Luís Paulo Reis

EST/IPCA Esc. Superior de Tecnologia/Instituto Politécnico do Cávado e do Ave LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected],

EEUM/DSI - Escola de Engenharia da Universidade do Minho e Centro ALGORITMI, Guimarães, Portugal LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected]

Brígida Mónica Faria

Victor Carvalho

Esc. Sup. de Tecnologia da Saúde do Porto / Inst. Politécnico do Porto, Portugal LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected]

ESTSP/IPP

Optimizer, Porto Business manager [email protected]

Álvaro Rocha DEI/UC Departamento de Engenharia Informática, Universidade de Coimbra, Coimbra, Portugal LIACC Lab. Inteligencia Artificial e Ciência de Computadores, Porto, Portugal [email protected]

Abstract The development of new technologies, information systems, decision support systems and clinical parameters prediction algorithms using machine learning and data mining opens a new perspective in many area of health. In this context, relevance presents the concept of Quality of Life (QOL) in health and the possibility of developing Support Systems Clinical Decision (SADC) that use it. Through individual expectation of physical well-being, psychological, mental, emotional and spiritual patients, discussed variables and measures the quality of research area of life, we intend to make a study of data to establish correlations with laboratory, pharmaceutical data , socio-economic, among others, obtaining knowledge in terms of behavioral patterns of chronic patients, achieving a number of reliable data and easily accessible, capable of enhancing the decision-making process by the specialized medical teams, seeking to improve treatments and consequently the related quality of life with the Health chronically ill. This paper studied and compared related studies that develop systems for decision support and prediction in the clinical area, with emphasis on studies in the area of quality of life. Keywords Decision

Quality of Life, Data-Mining, Support Systems

I.

INTRODUCTION

The multiplicity of questionnaires needed to evaluate as a whole and continuously the HRQoL of a patient and the frequency with which this assessment shall be carried out, difficult the HRQoL assessment by routine, limiting its use in support systems for clinical decision. The electronic device is an important aid to make it simple the continuous monitoring of patients quality of life and your health status. These systems, such as blood glucose monitors, blood pressure devices, pulse oximitry devices, or heart monitors, enable medical providers to electronically observe a patient remotely using these devices and telecommunications networks and can be used alternatively to the questionnaires. However, the basis of the quality of life assessment is selfreport questionnaires that determine the perception that each patient has on you. You need to use models to relate the questions in the questionnaire with the data obtained from medical devices, replacing in part or in full the patient's responses. In fact, we do not replace the questionnaire, which will always be the basis for assessing quality of life, we want some of the issues to be determined by the data analysis models that replace reliably the individual's answers making the process simpler for him.

Medicine based on the evidence and consideration of the patient as a contributing factor in clinical decision making, make the evaluation questions of quality of Life Related to Health (HRQoL) becoming increasingly important.

This study aims to show the state of the art in this area and propose some solutions for the complete and continuous assessment of HRQoL, minimizing the use of questionnaires and with low impact on the patient's routine.

However, the quality of life is a subjective concept usually measured through questionnaires for assessing certain aspects of quality of life (QoL) of an individual.

In order to measure all QoL aspects its necessary use a large set of Questionnaires. It becomes tedious to administer simultaneously several questionnaires especially in patients with major limitations caused by the disease. Therefore it is essential to find alternatives, so, is essential to find alternatives,

CISTI 2015 | 277

not evasive, to replace fully or largely questionnaires, including through biometric devices or recognition that do not require the patient intervention. At same time, is necessary to identify the HRQoL issues relevant to patients with locally recurrent rectal cancer (LCCR) with an aim to designing a new patient reported outcome measure to assess HRQoL in this cohort of patients [1]. New tools are needed for the assessment of QoL, built on the most influential factors in QoL. II.

QUALITY OF LIFE RELATED TO HEALTH: STATE OF THE ART

A. Definition At present, there is no consensus in the literature on the definition of quality of life, on the specification of its underlying dimensions, and on how it should be measured, [2]. Some organizations, such as the European Commission and the World Health Organization (WHO-Quality of Life Group), consider that quality of life is a concept that has subjective components. in life depends on their cultural habits and values, and it defines the individual Quality of Life (QoL). This concept applied in the Health context is defined as: Quality of Life related to Health (QoLRH). The assessment of QoLRH is a goal in medicine, used in clinical research, in medical practice, in health related economic studies and in health management planning and strategies. B. Quality of life Continuous Assessment Continuous monitoring for quality of life assessment is an important factor, especially in chronic diseases, in the prevention and early detection of symptoms and signs and consequent action, with positive effect on patient's quality of life, economic impact and resource management [3]. Quality of life has become an important issue in health care, especially in chronic diseases studies. Substantial amounts of data on quality of life are now being combined into clinical trials using a variety of instruments [3]. Routine assessment of cancer patients' HRQL had an impact on physician-patient communication and resulted in benefits for some patients, who had better HRQL and emotional functioning [4]. The continuous collection and growth of the database will allow their targeting function clinical variables identified allowing the application of the mathematical model is adjusted for more accurate and the population under study [3]. QOL is an important end point in modern day clinical practice [6]). This researcher affirms the importance of evaluation, the QOL routinely and still no differences as compared in clinical trials. C. Machine Learning, Data Mining and Behavior Recognition for Health Applications and QoL A support system clinical decision (SSDC) is a set of algorithms that produce information intended to assist health professionals in decision-making. These systems have been the

subject of intense study in recent decades in the field of health informatics. Intelligent Decision Support System (IDSS), which reflected an environment demanding increasingly more complicated and faster decision-making, continued improving over time and gained additional capabilities. Currently IDSS provides decision support via text analytics and mining based DSSs; ambient intelligence and the internet of things-based DSSs; biometrics based DSSs; recommender, advisory and expert systems, data mining, data analytics, neural networks, remote sensing and their integration with decision support systems and other IDSSs. Ambient intelligence is described as a model of interaction in which people are surrounded by intelligent devices, aware of their own presence, context sensitive and able to adapt to the eds through embedded technology [7]. Patient empowerment might be one key to reduce the pressure on health care systems challenged by the expected demographic changes. Knowledge based systems can, in combination with to review their state of health and make informed decisions [8]. These sensors could be in the form of thermometers, microphones, cameras, motion sensors, or any device that can provide information to an automated control system regarding the state of the environment [9]. The progressive increase in the amount of data, information and knowledge to medical practice has been the main reason for the development of these systems. The expectation is that by providing relevant data and knowledge in health care point, the SSDC's reduce the distance between the evidence and clinical practice [10]. The volume of data generated and stored from information systems in health beyond the capacity of human analysis. In this respect Mooney and Baeziger [11] highlight the contribution of specific research in the manipulation the large volume of clinical data (biometrics data) and the implementation of bioanalytical tools able to generate knowledge for decision making. Without these mechanisms data from these systems become useless. The purpose of including artificial intelligence is to amplify the cognitive capacities of the decision maker in the conversion of tacit knowledge into explicit knowledge. The analysis of the different variables involved will detect new relationships between the variables and new standards. This new knowledge will contribute to a better understanding of the problems. AI technologies are often able to find important facts, patterns, relations and/or other types of new knowledge that would not have been found using standard analysis techniques such as regression [7]. The sensitivity and the decision-making consequences for health, increases the importance of systems based on artificial intelligence. III.

PROJECT CONCEPT AND OVERALL APPROACH

This proposal is based on the following key ideas:

CISTI 2015 | 278

User centric model for quality of life evaluation working based on medical knowledge and on the expectations of end-users; Holistic view of the patient promoting physical and mental well-being and social affection to maximize their Quality of Life; Activate feedback and quality of life estimation by encouraging and empowering patients to take responsibility; Non-intrusive Quality of Life estimation by means of adequate sensor devices and machine learning techniques; Adaptation to current needs analyzing in continuous time the patient quality of life without disturbing too much the patient; Adaptation to personal preferences of both healthcare professionals and patients; Engagement of healthcare professionals since early stages until the final evaluation. Healthcare professionals, patients and stakeholders acceptance is essential in order to maximize the project impact and the benefits of the decision support system proposed for improving the quality of life of the patients. The project addresses this need in two ways: Firstly, a user centric development model is used where end-users and other key stakeholders will be engaged from the beginning of the project. This will include several rounds of iterative development with end-user studies that will be performed. Secondly, adaptation to the user is considered from both the point of adapting to the preferences of a user in general, as well as adapting to the current situation of the user considering the user as a holistic being with physical, psychological and social dimensions. IV.

SYSTEM PROPOSAL

The premise in the assessment of QoL is the selfassessment, so we cannot replace the questionnaire because it is the only tool that allows you to find the self-perception. Thus, any assessment of QoL implies to answer a questionnaire, many times a long questionnaire and in many cases more than one. For continuous and efficient monitoring a very frequent repetition of the completion of the questionnaires is necessary, mainly because of the responses have a very short shelf life (usually one week). The minimization problem is to find a way to assign an answer to the item, without the intervention of the individual. The proposal made in this project is: Collect information from QOL questionnaires. Collect information from biometric data from the devices on the patient and / or installed (at home) for observation of the patient.

Comparative analysis of the QoL values obtained from the questionnaire and biometric data to relate the different items of the questionnaire with biometric data Determine models capable of extracting information about the response to some questionnaire items based on the biometric data. Figure 1 shows the relation between de several parts and the process to the assessment QoL with questionnaires, biometric data and clinical variables.

Itens of QoL Questionnaires

Biometric Data

QoL Assessment Clinical Variables

Figure 1. QoL assessment with questionnaires, biometric data and clinical variables

Currently the assessment of QoL is carried out entirely from the responses to the items of several questionnaires, often long, and tiring for the patient. As a result of this project we intend to replace the patient's response to the largest possible number of items of a particular response by the mathematical models involved. We intend to analyse a first step what are the items of the questionnaires that can be determined by biometric data and clinical information and a second phase to replace the patient's responses to these items with the values obtained from the clinical and biometrics variables. Thus the number of items to respond will be substantially smaller and therefore less stressful for the patient. V.

CONCLUSION

It is undeniable the importance of systematic assessment of quality of life in the context of health. There is much research in this field, however, there are few research projects originate later, a systematic monitoring of HRQoL.

CISTI 2015 | 279

The difficulty in the systematic application of questionnaires for measuring HRQoL, and the relationship between the cost to obtain information and the value resulting from that measurement, are some arguments that explain the nonsystematic evaluation of HRQoL. This project aims to simplify the obtaining of information on HRQoL, thereby speeding the process at the same time improving the cost/benefit of "outcomes" related to the measurement of quality of life, particularly with the introduction of devices for automatic collection a part of the information, without however withdraw the patient from the center of the process, making its more active participation in the process and providing the healthcare professional a set of tools that will help in all decision making. ACKNOWLEDGMENTS This work was funded by QoLis - Quality of Life Platform Project, Nº2013/34034 QREN SI I&DT, (NUP, NORTE-070202-FEDER-034Ú34). The authors also acknowledge: LIACC (PEst-OE/EEI/UI0027/2014). REFERENCES [1] [2] [3]

Mitchell, G., Namdeo, A., & Kay, D. (2000). A new disease-burden method for estimating the impact of outdoor air quality on human health. The Science of The Total Environment, 246(2 3), 153 163. Gonçalves, J., Rocha, Á. (2012). A Decision Support System for Quality of Life in Head & Neck Oncology Patients. Head & Neck Oncology Journal, Feb 16, 4:3. Sinha, R., Heuvel, W. (2011). A systematic literature review of quality of life in lower limb amputees. Disability and Rehabilitation ;33(11):883 99.

[4]

Velikova, G., Booth, L., Smith, A., Brown, P., Lynch, P., Brown, J., Selby, P. (2004). Measuring quality of life in routine oncology practice improves communication and patient well-being: a randomized controlled trial. [5] Jalali, R., Dutta, D. (2012). Factors influencing quality of life in adult patients with primary brain tumors. Neuro Oncol. 2012 Sep; 14(Suppl 4): iv8 iv16. [6] Giezelt M., Goltz U. Grunwald D., Lochau M., Marschollek M., Song B., Wolf K-H. (2012). Arden2ByteCode:A one-pass Arden syntax compiler for service-oriented decision support systems based on the OSGi platform, Comput Methods Programs Biomed, 106(2):114:25 [7] Torunski E, Othman R, Orozco M, El Saddik A. (2012) A review of smart environments for energy savings. J Purchasing and Supply Manage 12(3):123 134 [8] Tenório, J.M., Hummel, A.D., Sdepanian, V.L., Pisa, I.T., Marin, H.F. (2011). Experiências internacionais da aplicação de sistemas de apoio à decisão clínica em gastroenterologia. Journal of Health Informatics, JanMar, 3(1): 27-31 [9] Mooney SD., Baenziger PH. (2008). Extensible open source content management systems and frameworks: a solution for many needs of a bioinformatics group. Brief Bioinform, 9(1):69-74. [10] Kaklauskas A, Zavadskas EK, Seniut M, Stankevic V, Raistenskis J, Simkevicius C, Stankevic T, Matuliauskaite A, Bartkiene L, Zemeckyte L, Paliskiene R, Cerkauskiene R, Gribniak V (2013) Recommender c Performance. Expert Systems with Applications 40(15):6150 6165 [11] Deena P. Harji, Ben Griffiths, Galina Velikova, Peter M. Sagar, and Julia Brown. (2014). Systematic Review of Health-Related Quality of Life Issues in Locally Recurrent Rectal Cancer. Journal of Surgical Oncology. [12] Giezelt M., Goltz U. Grunwald D., Lochau M., Marschollek M., Song B., Wolf K-H. (2012). Arden2ByteCode:A one-pass Arden syntax compiler for service-oriented decision support systems based on the OSGi platform, Comput Methods Programs Biomed, 106(2):114:25

CISTI 2015 | 280

QoLIS Uma Plataforma de Health Business Analitics baseada em Qualidade de Vida Relacionada com a Saúde QoLIS Health Business Analitics platform based on Quality of Life Related with Health Joaquim Gonçalves EST/IPCA Esc. Superior de Tecnologia/Instituto Politécnico do Cávado e do Ave LIACC Lab. Inteligência Artificial e Ciência de Computadores, Porto, Portugal [email protected],

Brígida Mónica Faria ESTSP/IPP

Esc. Sup. de Tecnologia da Saúde do Porto / Inst. Politécnico do Porto, Portugal LIACC Lab. Inteligência Artificial e Ciência de Computadores, Porto, Portugal [email protected]

Victor Carvalho

Álvaro Rocha

Optimizer, Porto Business manager [email protected]

DEI/UC Departamento de Engenharia Informática, Universidade de Coimbra, Coimbra, Portugal LIACC Lab. Inteligência Artificial e Ciência de Computadores, Porto, Portugal [email protected]

Luís Paulo Reis EEUM/DSI - Escola de Engenharia da Universidade do Minho e Centro ALGORITMI, Guimarães, Portugal LIACC Lab. Inteligência Artificial e Ciência de Computadores, Porto, Portugal [email protected] Resumo - A capacidade de medir efetivamente a Qualidade de Vida Relacionada com a Saúde (QdVRS) é um aspecto-chave para descrever os impactos da doença, tratamento, ou outras lesões, além de normal e envelhecimento do paciente esperado. Durante as duas últimas décadas, a avaliação do estado de saúde do paciente foi sujeita a uma substancial mudança de paradigma, evoluindo de uma dependência predominante em medições bioquímicas e físicas para o foco em resultados de saúde com base na avaliação pessoal da doença. Existem vários instrumentos de medição para avaliar a Qualidade de Vida (QdV) em geral, e QdVRS em particular, mas a análise em tempo real de dados produzidos por estes instrumentos só é possível com a tecnologia associada a sistemas de apoio à decisão (SAD). O desenvolvimento destes tipos de sistemas de informação apresentam alguns problemas que devem ser resolvidos. O QoLIS (Quality of Life Information Systems)) é um HBA (Health Business Analitics) com base nma plataforma web que usa informações sobre a QdVRS, além de dados clínicos, para fornecer informações que permitem auxiliar o clínico na tomada de decisão e pode interagir com qualquer fonte de dados. Palavras-chave - Qualidade de Vida, Qualida de Vida Relacionada com a saúde, Data-Mining, Saúde Bussiness Analitics

Abstract The ability to effectively measure the quality of health-related life (HRQoL) is a key aspect to describe the impacts of the disease, treatment, or other injuries, beyond normal and expected aging of the patient. During the last two decades, the assessment of the patient's health status has undergone a dramatic change of paradigm, evolving from a predominant reliance on biochemical and physical measurements to an emphasis on health outcomes based on personal appreciation of the patient's illness. There are several measuring instruments to evaluate Quality of Life (QoL) in general and HRQoL in particular but the real-time analysis of data produced by these instruments is only possible with technology associated with decision support systems (DSS). The development of these types of information systems are a few problems that must be resolved. The QoLIS (Quality of Life Information System) is an HBA) based in a web platform that uses information on HRQoL, in addition to clinical data, to provide information to support the clinician in decision making and can interact with any data source. Keywords Quality of Life, Quality of Life Related with Health Data-Mining, Health Bussiness Analitics

CISTI 2015 | 281

I.

INTRODUÇÃO

Actualmente os indicadores de Qualidade de Vida Relacionada com a Saúde (QdVRS) são usados em estratégias de gestão da saúde, por gestores, economistas e analistas políticos e empresas farmacêuticas, a Organização Mundial de Saúde (OMS) tem um programa específico para assuntos relacionados com a QdVRS (WHOQOL), além disto, é também um objectivo em Medicina, usada em estudos epidemiológicos, ensaios clínicos, na prática médica, em estudos económicos de saúde, planeamento de medidas e estratégias e comparação das mesmas [1]. Existem diversos instrumentos de medida para avaliação da QdV em geral e da QdVRS em particular, habitualmente baseados em questionários validados para o efeito. A análise em tempo real dos dados produzidos por estes instrumentos e a sua relação com as variáveis clínicas, incluindo os diferentes tratamentos, bem como a utilização de modelos de previsão de prognostico só é possível com tecnologia associada a sistemas de suporte à decisão (SSD) [2]. Ao desenvolvimento destes tipos de informação são colocados alguns problemas:

sistemas

de

Necessidade de recolher informação continuamente Manipulação de dados de diferentes tipos Integração de informação proveniente de diversos sistemas. Segurança e confidencialidade da informação A fim de resolver estes problemas, será necessário desenvolver um sistema integrado capaz de receber diferentes tipos de dados oriundos de diversos dispositivos, com uma grande interoperabilidade e munido de modelos específicos para tratamento e análise daqueles dados. Uma vez que estes dados são relacionados com a saúde vamos denominar este

sobre tratamentos relacionados o foco central da doença. Além disso a arquitectura da aplicação foi modificada de forma a aumentar a modularidade tornando mais simples a sua utilização em qualquer tipo de doença e com qualquer tipo de fonte de informação, permitindo ainda acrescentar novos modelos de previsão e sistemas de apoio à decisão clínica. A mobilidade também não foi esquecida pelo que a arquitectura tecnológica também suporta interacção com os dispositivos móveis. A utilização do QoLIS permite concretizar diversos objectivos: Gerir cuidados de saúde em grandes populações de doentes Agregar, analisar e relatar dados de saúde e de qualidade de vida da população Enviar notificações de eventos e dados a equipas clínicas Melhorar os Índices de satisfação do paciente Diminuir a readmissão de doentes Diminuição de tempos de consulta e consequentemente de listas de espera Efectuar medicina baseada na evidência e centrada no doente Utilização da medida de QdVRS como uma variável clínica Avaliação em tempo real da qualidade de vida para a detecção precoce de problemas relacionados com a doença; Suporte para decidir protocolo de tratamento com base em modelos preditivos criados a partir de história pacientes. II.

MÉTODO

Para a execução do projecto foi analisado o projecto QoLiP ao nível da arquitectura tecnológica, do modelo de dados e das tecnologias utilizadas, a figura 1 mostra a arquitectura do QoLiP.

(HBA). Fuchs [3] refere que os sistemas de saúde deverão ser suportados numa Medicina Baseada na Evidência que assegure com o menor custo possível quatro medidas fundamentais, a saber, Eficácia, Eficiência, Efectividade, Igualdade. Além disso estes sistemas deverão ser centrados no doente, cumprindo assim as directivas da OMS [4][5]. Este projecto foi concebido com base no projecto QoLiP (Quality of Life Platform), desenvolvido no IPO do Porto [6, 7, 9], que na sua essência utiliza modelos matemáticos para medir qualidade de vida em tempo real. Fornece um relatório de qualidade de vida que auxilia o clínico na tomada de decisão sobre a intervenção em problemas colaterais, podendo estes estar relacionados com a doença ou não e constituindo o seu foco central. A estas funcionalidades, a plataforma QoLIS acrescenta um conjunto de modelos para extração de conhecimento nomeadamente na classificação dos doentes em função das variáveis clínicas e no valor de QdVRS, modelos de previsão de qualidade de vida auxiliando também a tomada de decisão

Figura 1 Arquitectura tecnológica do QoLiP

A arquitetura tecnológica do QoLIS (figura 2) foi desenhada também para ambiente web, com o objectivo de incrementar a modularidade, e introduzir tecnologias testadas e robustas, nomeadamente ao nível da bases de dados, substituindo o servidor de PostGreSQL por um servidor Oracle. Forma consideradas 4 camadas distintas: frontend,

CISTI 2015 | 282

servidor da aplicação, base de dados e comunicação com o sistema operativo.

Expectativa acerca do tempo consumido com utilização da plataforma A informação recolhida contribuiu para o produto final. Relativamente ao processo de determinação da QdVRS, não foi efectuada qualquer alteração ao projecto original mantendo o modelo representado na figura 4.

Figura 2 Arquitectura tecnológica do QoLIS

Sabendo que a maior parte das instituições têm sistemas de informação instalados e que alguns dados necessários para o QoLIS estão nas bases de dados desses sistemas, foi criado também um motor de integração (figura 3) para que o QoLIS possa utilizar a informação dos sistemas já em funcionamento em combinação com os dados recolhidos pelo QoLIS que não constem nos outros sistemas de informação.

Figura 4

Fluxo de avaliação da QdVRS

III.

RESULTADOS

A aplicação é constituída por diferentes módulos independentes permitindo a inclusão, alteração ou eliminação de estrutura de informação associada a consultas sem interferência com os outros módulos. A figura 5 mostra o módulo de consulta em oncologia na unidade de cabeça e pescoço.

Figura 5 Figura 3 Motor de integração

Foram ainda analisadas questões relacionadas com a usabilidade utilizando para o efeito um painel de potenciais utilizadores que manifestaram a sua opinião acerca dos seguintes aspectos:

Módulo de consulta de oncologia em C&P

A figura 6 revela o módulo de migração de dados no caso em que os dados são importados de um sistema de informação já existente e que vai integrar com o QoLIS.

Utilização intuitiva Facilidade de acesso à informação Simplicidade na introdução da informação

CISTI 2015 | 283

Figura 6

Módulo de integração

O QoLIS possui também um sistema de alertas (figura 7) que informa os profissionais de saúde sobre a proximidade de uma consulta (para que possa ser solicitado o preenchimento do questionário de QdV antecipadamente) e sobre a falta de um doente a uma consulta.

Figura 10 Evolução da QdVRS Figura 7 Módulo de sistema de alertas

As figuras 8, 9 e 10 mostram análises sobre um único doente. As figura 8 e 9 apresentam os gráficos resultantes da medição de QdVRS, por dimensão e por sintoma, num determinado doente e a figura 10 permite observar a evolução da QdVRS, ao longo do tempo, com base nas sucessivas avaliações efectuadas.

A análise por grupo é também uma ferramenta disponível, para cada variável ou conjunto de variáveis podem ser extraídos alguns indicadores estatísticos. As figuras 11 e 12 permitem observar duas análises por localização do tumor, a figura 11 refere-se a dados agrupados no que respeita à frequência da incidência e a figura 12 apresenta a média de QdVRS no mesmo grupo.

De acordo com Brundage [9], o doente também deverá receber informação sobre a sua QdV mas, num formato específico, naturalmente distinto daquilo que é o relatório para o profissional de saúde, mas que o faça sentir parte integrante do processo. Assim, as figura 8 e 9 são alguma das que fazem parte da informação a fornecer ao doente. O mesmo não acontece com a figura 10 que serve apenas o relatório destinado ao profissional de saúde.

Figura 11 Frequência por localização do tumor

Figura 8

Gráfico de QdVRS por sintoma

Figura 9 Gráfico de QdVRS por domínio Figura 12 Média de QdVRS por localização do tumor

CISTI 2015 | 284

IV.

CONCLUSÕES

REFERÊNCIAS BIBLIOGRÁFICAS

A plataforma QoLIS cumpre os requisitos propostos, gerindo um sistema de informação orientado para o doente, permitindo identificar potenciais necessidades desconhecidas resultantes dos mecanismos de previsão de prognóstico. Os modelos matemáticos utilizados para a extracção de conhecimento revelaram-se eficientes e ajustados às necessidades, dotando os resultados de boa fiabilidade. A utilização da informação resultante do QoLIS, por parte dos profissionais de saúde, melhora a qualidade de vida do doente, dos seus familiares contribuindo para um aumento generalizado da qualidade de vida da comunidade envolvente com benefício na produtividade, impacto social positivo e racionalização de recursos humanos e financeiros. A ferramenta utilizada para a medição de qualidade de vida são os questionários desenvolvidos para o efeito, todavia a utilização de outras ferramentas e estratégias para obtenção de informação com vista à avaliação de QdVRS em particular e da QdV em geral estão contempladas no QoLIS e o seu estudo está a ser desenvolvido neste momento. AGRADECIMENTOS Este trabalho foi financiado pelo projeto QoLis - Quality of Life Platform Project, Nº2013/34034 QREN SI I&DT, (NUP, NORTE-070202-FEDER-034Ú34). Os autores também agradecem aos projetos estratégicos LIACC (PEst-OE/EEI/ UI0027/2015) e Centro ALGORITMI (PEst-C/EEI/UI0319/ 2015)

[1]. Stewart, B.W., Kleihues, P. (2003). World Cancer Report, IARC Press. [2]. Fayyad, U., Piatetsky-Shapiro, G., Smyth, P. (1996). From Data Mining to Knowledge Discovery in Databases. American Association for Artificial Intelligence. [3]. Fuchs VR. (2000). The future of health economics. J Health Econ. Mar, 19(2):141-57. [4]. Ludwick, D.A., Doucette, J. (2009). Adopting electronic medical records in primary care: lessons learned from health information systems implementation experience [5]. Rahimi, B., Vimarlund, V., Timpka, T. (2009). Health information system implementation: a qualitative meta-analysis. J Med Syst, 33 (5): 359-368. knowledge [6]. Gonçalves, J., Silveira, A. e Rocha, Á. (2010). management system for study of quality of life in head and neck cancer Information Systems and Technologies (CISTI), 2010 5th Iberian Conference on, 16-19 June 2010. [7]. Gonçalves, J., Silveira, A. e Rocha, Á. (2011). A knowledge management system to study the quality of life in head and neck oncology patients Studies in Health Technology and Informatics, 165: 31 - 36. Doi: 10.3233/978-1-60750-735-2-31 [8]. Gonçalves, J., Silveira, A. e Rocha, Á. (2011). A platform to study the quality of life in oncology patients International Journal of Information Systems and Change Management, 5(3): 209 - 220. Doi: 10.1504/IJISCM.2011.044501 [9]. Brundage M1, Feldman-Stewart D, Leis A, Bezjak A, Degner L, Velji K, Zetes-Zanatta L, Tu D, Ritvo P, Pater J. (2005). Communicating Quality of Life Information to Cancer Patients: A Study of Six Presentation Format. Journal of clinical oncology Oct 1;23(28):694956.

CISTI 2015 | 285

2nd ICTWays Workshop: Best Practices on ICT Ways in the Classroom

CISTI 2015 | 286

Developments to Improve Teaching with 3D Images Manuel Pérez Cota, Miguel Ramón González- Castro; Jorge Manuel Píres

Ramiro Gonçalves Universidade de Tras-os-Montes e Alto-Douro, Vila Real, Portugal [email protected]

Dpto. de Informática, Universidad de Vigo, Vigo, Spain [email protected], [email protected] Abstract The use of graphics in Industry is something completely normal as used to be in education, something different is the way we can apply the concepts. The idea of this document is to show the ways we think industrial graphical systems can be applied in education to increase the way students can learn some kind of skills. In the industry graphic systems show the ways in which the systems are working and operating displays of DCS (Distributed Control System) displays operational information in 2D, 2.5 or 3D environments. Educational graphics are being used to show tales, math, physical or other objects in 2D, this limits the full awareness situation of the things that can be showed to students. To enhance the characteristics of educational graphics we propose the use of some industrial tricks to increase the that this increases the amount and quality of information that may be given to students and prevents unnecessary time consuming in explanations. Keywords: HCI, 2D, 3D, 2.5D, visualization models.

I.

INTRODUCTION

It is a fact, nowadays, that IT can radically change the educational practices and their learning processes. Then the technological revolution requires better cognitive skills, and more and more innovation and creativity. A low cognitive function can move people to misunderstand some skills, or made them to be acquired slowly. There will be one cognitive those responsible for education are not formed to overcome it, or do not make use of strategic resources to avoid waste of cognitive potential of individuals [16]. In industry the DCS (Distributed Control System) is a control device that is primarily used in the continuous process industry. This type of industry is characterized by having a critical production process, in which any failure or shutdown can create dangerous situations for both the environment and for people. Failures in this industry may involve shutdowns of several days, while the start-ups can stay for several days until process stabilization is achieved. 40% of these failures [12] are attributable to errors or failure in operation, which means that the efficiency of operators becomes a critical element of this industry. This requires increasing the quantity and quality of information that is given to the operator and to provide him/her with tools and frameworks that favour the selection of a wise operating decision. As we can see, in both cases, the misinterpretation of some kind of facts can cause problems and in both cases graphical systems have made the situation much better.

II.

APPROACH

A motivated individual be automatically a better skills receiver; a genius is 1% inspiration and 99% work.[17]. Cognition has grown as a doctrine based on the various timeempirical observations, and hard data of field research evidence proof, that are mental structures underlying not only thought, but also emotion, as well as the very perception and interpretation of both inner/internal and outer/external source information [18] cited for Lazarus in 1999. Gardner in 1993 as cited in [18] whose multiple intelligence theory is based on cognitivism, asserts that mind consists of numerous fairly specific and independent computational mechanisms, and it is in this context that research on learning styles has also been promoted. Based on cognitive learning theory, the structure of content of the cognitive matter should be organized hierarchically. Relevant research (Deshler, 1986) as cited in [18] has surely led to the conclusion that students learn mainly from the progressive and relation-linked construction of knowledge. This approach may well find applications in systems based on more complex graphics, than those based on 2D plain screens. From the constructivist point of view the interpretation that the individual performs of the new experiences is influenced by his/her prior knowledge. This introduces a new perspective in learning process. Learning requires understanding of the whole and the parts, and should be understood in a global context. In this perspective, Feuerstein introduces one new dynamic coconstructivism [19]. The theory of Structural Cognitive Modifiability (SCM), far transcends the purely cognitivist approach, and advocates that every individual is modifiable, a process that is inherent to the human species [19]. From the industrial point of view, visualization tools have acquired a dominance roll within the data analysis and decision making support systems. Growth of information generation channels gets to bring an overload that jeopardizes analysis capacity for different actors from the enterprise organ. In order to confront this problem, the main Business Intelligence market systems begin to brand use of visualization techniques, more complex graphical systems, to provide mechanisms that allow user to see and understand great volumes of abstract information. component causes that the good advantage of visual analytics depends to a great extent on the organizational culture. As it can be seen, the systems have advanced in both fields along similar lines, but differing in the way are being used this will be confronted, then the points that may place them at similar levels and environments that can make seemingly and

CISTI 2015 | 287

the complex reality, they can transpose environments, too complex but are in reality completely different jobs. III.

MEETING POINTS

If now, it is analyzed the way it has evolved the industrial world and the world of education, we find that "both" have used the latest technology for their own benefit, this means that the first meeting point is the use of technology in its most advanced stages. An example can easily be seen in this point: while the industry is beginning to use computers to perform calculations or issue reports, on education was exactly what was taught how calculations are performed and notes were made (reports after all). When computers become more advanced, they began to use the first graphical systems to TCD 3000 Honeywell, which were based on cathode ray tube and where colors were very simple on the black background. At the same time in teaching the first programs based on IBM PC computers that allowed teachers to teach in a very simply way, how they worked, for example the Second degree equation in a parabolic shot were made. The principle was the same, the graphical representation of information that may be interpreted in a much easier form instead of watch only numbers. held a revolution in the way of printing on paper and display the data. Starting now with teaching, we can say that the tedious job of making lists of students, putting their qualifications, rank, get the averages, endnotes, knowing instantly the number of approved and failed, that changed our way of doing things. What about industry?, those same programs were also used, spreadsheets, made a revolution, allowed, very simply design of lists of materials, simply get prices recalculate any variation, order, generate data regressions, and finally print all in a very simple way, again in parallel industry, commerce, administration and teaching took advantage of these new technological tools. A new development was constituted by Presentations Software (as Power Point), a revolution in the industry, since they allow a simple way to create presentations to explain the operation, development, how to make or break something, totally changing the way of explaining concepts and how to give lectures and courses but, are we talking about the industry or teaching?. Well here we have an obvious and clear crossroads, a place where both converge, how to explain, to teach, to show , doing something, was conjugated in the use of these tools of presentation. Tools that initially allowed only display a few lines of text and, little more, a few graphics, but both teaching and industry wanted, needed more, much more power, more power, more capacity, more features and, today, these tools have become essential in teaching and industry, alone or combined with whiteboards or Internet. What we can do now with a presentation tool are what our masters of the past century speechless and spellbound watching and what they could do with a formidable task on a blackboard, you can now visualize not only static but also dynamic using these programs. It has completely changed the philosophy of the explanations in both fields (education and industry). The

industry needed this change, but not only the industry also the teaching, although the power of both will result first benefited. To continue with meeting points, and done on purpose, has left another tool for now, even though, practically, the first word processors. Who does not remember, working in the industry, the tedious process of performing a manual, a manual manufacturing, sales manual, a ....?, Where a number of hours / awesome man invested for create a huge brick of paper so that people could understand a particular process, whichever. It required knowledge of the processes, their writing and reviewing, their layouts, their impression, their distribution. A process that involved many people and they had to leave part of their time if they did not write, to dictate or somehow transcribe their knowledge of specific materials that could be understood by others. Suddenly a word processor appears, and it allow to do all in the same process, but the system itself was responsible for "spelling", user could do into pieces and put them all together, where everyone brought the party knew without a "very complex" planning, once ordered everything written, reviewed and simply print and distribute. We are talking about manuals of industrial processes but what about teaching?. The process was similar, a teacher decides to create a book about his material. Year ago he/she needed to do it by hand or using a typewriter (as in the industry, those times) it was needed to revise again and again until it was properly formatted with correct spelling and syntax. Now simply type in the program of word processing and the program itself is responsible for most things, it is important to remember that since computers were invented it took even more than 60 years to get a machine to be able to do these functions. Once the book was finished onto the program, the program itself can make all corrections deemed necessary, once it was revised and finalized it can be made available to students or in the case of industry, users ... .how much sameness! So far there has been talking about general office tools and that in both environments have allowed a great development and a change in impressive habits work. However it is important to note that while talking about the interfaces, are quite true, also, that in less developed countries the use of these tools is allowing an evolution of life of people without parallel in the history of mankind. IV.

THE FINAL STEP

After using office automation tools have been many steps that have been done and, in some cases, give the impression that the industry is on the one way and teaching is walking in other completely different. Nothing is further from reality, although it might seem, both institutions, as it somehow, teaching and industry have been sending embodiments, it means what has been started using bye one of them, often without changes or with some small changes, or others only with nuances and in rare cases with many changes have taken advantage by the other. The best way to understand this is to put an example. When first started using fieldbuses to interconnect devices (Ethernet, Modbus, Profibus) [15], it was not easy to imagine that something similar would end up utilizing in education,

CISTI 2015 | 288

even taking many reasons for these systems could be used. However, when Ethernet networks and emerge of Internet enabled a good connection, not only based in modems, it could be seen as modified in the security and use expanded at breakneck speed in schools. In the first case, industrial, it was necessary that the signals arrive, unequivocally to control centers for more than a way to avoid problems. In the educational case that it was not necessary, but if you began to need that signals arrive in time especially in computer assisted instruction distance, the renowned e-learning.

Honeywell TDC3000. 1988

Figure 2. Industrial Model [15] & Learning Model (www.digitalmedia-bremen.de)

As can be seen, the changing patterns suggests that are different models, however if the names of some of the things you see in the above graph discover that we are talking about the same, with minor modifications were changed required, usually for security and specific standards.

IMP PC (www-03.ibm.com)

V.

THE FUTURE

While it is difficult to know for sure what will happen in the future, if you can rest assured knowing that both industry education copied everything that can be useful as teaching adapted to industry anything that is capable of being used to teach.

Actual console (www.tariga.net) Figure 1: Devices evolution

The e-learning, b-learning and other names used to represent the so-called distance computer-aided learning. This have changed the way in which education is understood nowadays, in fact in many countries and regions have been changed curricula so that students have to compulsorily use networked computers. Now we can see in different subjects (see for example http://edu.xunta.es) things are completely open in education that is happening also in industry, where many of the management processes companies have changed so staff must use all its processes the interconnected computers not only for work but also for meetings, collaborative work, process design, etc., which is already done in teaching from the beginning of computer networks.

Another development that has changed the way things are being done and problems are being viewed from education and industry in recent years has probably been mobile or cell phone, as is known in some countries, and has done so because it has changed what was a typical office or classic desk work with calculators, computer (with all that this implied), alarm, cameras and video to pass it all in one device that can give access to everything that can be worn without weight problems, which can be used virtually anywhere even connected to the control systems and enterprise management to control remote processes. what?, like in teaching, students bring their mobile phones, recorded classes, passed notes, control their qualifications, send jobs to their teachers or peers, the workplace and the classroom are open. It was speculated a lot with the use of Google Glass [20] and multiple jobs than can be done with them. They seemed

CISTI 2015 | 289

the tool of the future. They have found many uses in industry, medicine, engineering, education, and in almost any field that we could imagine, but highlighting the industry and education mean that many developments that seemed a panacea for the future of the use of technology, however, it seems that its development was stopped for no reason that seems clear or plausible. Many companies are concerned, then, the use of devices that could replace, or at least they had the "success" that was expected.

and are transferring to industry their well done things in technology. It is important to note that precisely the great success is just that, teaching is matched by the industry as the industry goes in parallel with teaching and if it is achieved that it stays that way success is guaranteed for two fields. REFERENCES [1] [2] [3] [4] [5] [6] [7]

Figure 3. Google Glass (play.google.com) Hololens (Microsoft)(techcrunch.com)

Other enterprises loses no time and they showed devices that may overshadow the Google Glass. We can talk in this case about HoloLens of Microsoft [21]. It is enough to see its video presentation to watch that we have a system with augmented reality and 3D visualization where anything is likely to be created, modified, displayed, simply generated a mixture of stereoscopic vision and the vision of the real things modified on the environment, with the great advantage that the user can move in their environment to be transparent and see it changing the way the software allows, with all these we can leave to the imagination fuuture both in industry and in education. VI.

[8] [9] [10] [11] [12] [13] [14] [15]

CONCLUSIONS

The first conclusion obtained in this paper is that the evolution of the use of technology in industry is almost in parallel with the use of the same technology in education at various levels of education, in some cases industry is ahead, but in other things teaching and learning are ahead

[16] [17]

CISTI 2015 | 290

ASM (February 2012), http://www.asmconsortium.net Reising, D.V., et al.: Supporting Operator Situation Awareness With Overview Displays: ICOCO, pp. 188 198 (2010) Bullemer, P., et al.: Gray Backgrounds for DCS Operating Displays? Control Engineering (February 2011) Honeywell. TotalPlant Alcont and Printa. Configuration Manual & Application planning guide. Honeywell October 2006) Siemens. Simatic PCS7, Siemens (February 2012), http://www.siemens.com Emerson, Delta V (February 2012), http://www2.emersonprocess.com/ ABB, System 800xA Extended Automation (February 2012), http://www.abb.com Nvidia, 3D Vision (February 2012), http://www.nvidia.es Pérez Cota, M., González Castro, M.R.: Interfaz Avanzada de Operador de DCS. In: 6a CISTI, Chaves (Portugal), pp. 37 41 (Junio 2011) Olausson, M., et al.: Colaborando en una nueva dimensión. Revista ABB, 6 11 (February 2012) ISO, iso 1219-1, iso 1219-2, http://www.iso.org Breibvold, H.P., et al.: El Operario eficaz. Revista ABB, 6 11 (April 2010) Baldassari, S., et al.: Interacción emocional con actores virtuales a través de lenguaje natural. In: AIPO, pp. 305 314 (2007) Grupo Empresarial ENCE (January 2013), http://www.ence.es Pérez Cota, M., González Castro, M.R.: Problemas en el uso de entornos 3D en DCS. In: 7a CISTI, Madrid (España), pp. 75 80 (June 2012) Fonseca, V.: Aprender a aprender: A educabilidade cognitiva, noticias editorial, 2ª edition, Lisboa, Portugal Edison, T. A. In: 10.02.2015, from http://www.proverbia.net/citasautor.asp?autor=325

Ana Pinto

Paula Escudeiro

Colégio Internato dos Carvalhos ( Carvalhos Secondary School) Porto, Portugal [email protected] Resumo As possibilidades de utilização da linguagem de programação Scratch, com o intuito de desenvolver competências e habilidades necessárias para o novo perfil de cidadão atuante no século XXI, podem hoje em dia ser exploradas pelos profissionais de Ensino que desejam conhecer e trabalhar com ferramentas que permitem a aprendizagem colaborativa, interativa, funcional, construtiva e significativa, com foco no protagonismo e autonomia do aluno. Vários os estudos, sobre a utilização do Scratch em contextos educativos, revelam claramente uma mudança pedagógica no ensino e na aprendizagem. Este artigo apresenta o resultado do trabalho desenvolvido numa escola do Ensino Básico e Secundário na disciplina de TIC, usando o Scratch. Todo o trabalho foi baseado em duas premissas: a implementação do Scracth e o desenvolvimento de atividades colaborativas em TIC. Para tal, o Scratch foi utilizado como o ambiente lúdico de aprendizagem, tendo como objetivo a iniciação à programação ao longo do 3º período. Os resultados deste estudo contribuíram, por um lado, para mudanças ao nível da planificação de aulas com um valor pedagógico acrescido. Por outro lado, comprovaram a possível utilização do Scratch com atividades colaborativas em TIC. Palavras Chave - Aprendizagem Colaborativa; Colaboração; Estratégias de Ensino e Aprendizagem; Educação; Scratch. Abstract The possibilities of using the Scratch programming language, in order to develop competencies and skills required for the new national profile operating in the XXI century, can now be exploited by education professionals who want to meet and work with tools that allow collaborative learning, interactive, functional, constructive and meaningful, focusing on the role and autonomy of the student. Several studies on the use of Scratch in educational settings, clearly indicates a pedagogical change in teaching and learning. This article presents the results of the work in a school of Elementary and Secondary Education in ICT subject, using Scratch. All the work was based on two premises: the implementation of scracth and the development of collaborative activities in ICT. To this end, the Scratch was used as the playful learning environment, with the objective of introduction to programming throughout the 3rd period. The results of this study contributed, first, to changes in its planning lessons with educational value plus. On the other hand, have demonstrated the potential use of Scratch Keywords - Collaborative Learning, Collaboration, Strategies for Teaching and Learning, Education, Scratch.

I.

INTRODUÇÃO

O atual sistema de Educação em Portugal, adoptou as metas curriculares, as quais são um referencial para professores e encarregados de educação, ajudando-os a encontrar os meios essenciais para que os alunos desenvolvam as capacidades e os

Instituto Superior de Engenharia do Porto (GILT) Porto, Portugal [email protected] conhecimentos indispensáveis ao prosseguimento dos seus estudos e às necessidades da sociedade contemporânea. A sua formulação convocou dados científicos, bem como recomendações produzidas no âmbito da Agenda Digital Europeia1 e da OCDE 2, que sublinham a importância de, desde cedo, os alunos utilizarem as TIC como ferramentas de trabalho. Com esta nova disciplina de TIC, pretende-se promover o desenvolvimento de conhecimentos e capacidades na utilização das tecnologias de informação e comunicação que permitam uma literacia digital generalizada, tendo em conta a igualdade de oportunidades para todos os alunos No artigo 3º do Decreto-Lei 6/2001 surgem explícitos os princípios orientadores do currículo, consagrando a ensino e atividades de aprendizagem, em particular com Para que esta estratégia resulte, é necessário recriar ambientes que favoreçam a colaboração, a comunicação e a participação social. Este estudo tenta dar resposta à problemática da inserção/implementação do Scratch na sala de aula, em TIC, centralizando-se na aprendizagem colaborativa tendo como propósito responder a vários objetivos. - Conferir se a implementação de estratégias colaborativas favorecem a utilização do Scratch na disciplina de TIC; -Verificar a forma como os intervenientes atuam no processo, ao nível das interações; - Conferir de que forma o scratch enriquece o processo de ensino e aprendizagem em TIC. Serão intenções deste estudo tentar criar um ambiente inovador e apropriado e testar esse mesmo ambiente de ensino/aprendizagem. II.

CONTEXTUALIZAÇÃO GERAL

A. O professor e os pilares da Educação do século XXI DELORS (1996) referiu quatro pilares da Educação do século XXI, como sendo partes estruturantes para qualquer projeto de vida individual: aprender a conhecer; aprender a fazer; aprender a viver juntos e aprender a ser.

1 2

CEC. (2011). Digital Agenda Scoreboard, CEC. -Skills for The 21st Century: Fostering Competitiveness,

CISTI 2015 | 291

A atividade de aprender em permanência, adquirindo mais e melhores competências, requer novas práticas pedagógicas e a emergência de novos cenários para as Escolas do Futuro. A mudança de paradigma educacional implica uma mudança no diálogo pedagógico didático, na capacidade de aprender durante os vários ciclos educativos, mas também, ao longo da vida. Isto significa capacidade para aprender, para saber utilizar esse conhecimento, de forma a dar resposta às atuais mudanças, culturais, sociais, económicas, tecnológicas. Sendo assim, ao professor lança-se um verdadeiro desafio, incentivando-o a mudar de modelo de paradigma pedagógico: compreender que as tecnologias permitem passar para um modelo pedagógico cujo funcionamento se baseia na construção colaborativa de saberes, na abertura aos contextos sociais e culturais, à diversidade dos alunos, aos seus conhecimentos, experimentação e interesses. B. Factores que intervêm no ensino-aprendizagem Entendemos por contexto educativo o conjunto de fatores que determinam a perceção que o aluno tem da ação educativa (ROGOFF, 1982) e que estão relacionados tanto com o que é imediatamente percetível e explícito, como com o mais subtil, não percetível nem implícito; estamos a falar de fatores físicos (distribuição do espaço na sala, objetos), culturais (características sociais, hábitos, regras de comunicação e comportamento) e sociais (influência dos diversos grupos sociais com os quais o aluno interage: família, escola, participação em atividades de educação não formal). O contexto é conhecido e partilhado por todos os que participam numa determinada situação educativa, muito embora cada um deles tenha uma forma pessoal de o interpretar e uma forma particular de o representar (EDWARDS, 1987) que por sua vez condiciona e determina o que o aluno faz na aula, o modo como encara as tarefas de aprendizagem, os seus pensamentos em relação ao estudo e o seu estilo particular de entender e de atuar na escola.

a) Perceção de si mesmo b) Motivação

2. Fatores da tarefa a) Objetivos b) Habilidades cognitivas c) Tipo de conhecimento

TABELA I- FATORES QUE INTERVÊM NO ENSINO-APRENDIZAGEM DE ESTRATÉGIAS/AÇÕES FACTORES 1. Fatores pessoais

ACÇÕES Favorecer o intercâmbio de ideias

- Fomentar explicações positivas de sucesso e de insucesso; - Fornecer informações sobre os progressos na aprendizagem; - Estabelecer objetivos próximos; - Ajudar o aluno a tomar consciência dos seus próprios interesses; - Estimular o aluno a formular metas de aprendizagem; - Organizar a aprendizagem em grupos colaborativos. Ajudar o aluno a identificar o que se pretende na tarefa - Utilizar uma linguagem adequada ao nível dos alunos; - Atuar como modelo de comportamento estratégico. - Explicitar as habilidades necessárias e potenciar o seu desenvolvimento e aplicação. - Adequar a metodologia ao tipo de conhecimento; - Orientar o pensamento dos alunos através de perguntas; - Explicitar os motivos que justificam a utilização de determinados procedimentos; - Verificar os conhecimentos e experiências prévias dos alunos.

C. Vantagens da aprendizagem colaborativa Iremos organizar as vantagens da aprendizagem colaborativa em dois níveis distintos: numa dinâmica de grupo e numa dinâmica pessoal (MINERVA) A) A dinâmica de grupo: Possibilita o alcance de objetivos qualitativamente mais ricos em conteúdo, pois reúne propostas e soluções de vários elementos do grupo; Baseia os grupos na interdependência positiva entre os alunos, o que requer que cada um se autoresponsabilize pela sua própria aprendizagem e pela aprendizagem dos outros elementos do grupo (a aprendizagem partilhada permite que os alunos se integrem na discussão e tomem consciência da sua responsabilidade no processo de aprendizagem); Incentiva os alunos a aprender entre eles, valorizando os conhecimentos dos colegas e tirando partido das experiências de aprendizagem de cada um; Promove uma maior aproximação entre os alunos e uma maior troca ativa de ideias no seio do grupo, o que aumenta o interesse e o compromisso entre eles; Transforma a aprendizagem numa atividade eminentemente social; Aumenta a satisfação pelo próprio trabalho.

Para que possamos falar de interação conjunta, construção do conhecimento e aprendizagem significativa, o professor deverá ajudar o aluno a alcançar uma compreensão básica do sentido daquilo que está a ser discutido e negociado na aula e assegurar-se de que a sua perceção do contexto educativo é partilhada por ele, pois só assim o poderá ajudar a progredir no sentido da compreensão e aquisição do conteúdo curricular que é o objeto da aprendizagem (MONEREO, 2007). Por um lado, temos os fatores pessoais, que agrupam todos os aspetos relacionados com a perceção que cada um tem de si mesmo como aprendiz (autoconceito, autoestima, motivação, etc.), e, por outro lado, fatores relacionados com a tarefa, os que explicam como o aluno entende as atividades de aprendizagem e como vai adequando a sua atuação a essa conceção (ver Tabela I).

- Promover o conceito de inteligência modificável.

B) O nível pessoal: Aumenta as competências sociais, de interação e comunicação efetivas; Incentiva o desenvolvimento do pensamento crítico e a abertura mental; Permite conhecer diferentes temas e adquirir nova informação; Reforça a ideia que cada aluno é um professor (a aprendizagem emerge do diálogo ativo entre professores/alunos);

CISTI 2015 | 292

Diminui o sentimento de isolamento e de temor à crítica; Aumenta a segurança em si mesmo, a auto estima e a integração no grupo; Fortalece o sentimento de solidariedade e respeito mútuo, baseado nos resultados do trabalho em grupo. D. Porquê o Scartch? O Scratch, concebido no MIT, é uma linguagem de programação acessível a todos, na Escola e em casa. Ferramenta web 2.0, promove o potencial criador colocando o utilizador no centro da produção de conteúdos sobre qualquer tema. Os alunos apresentam grandes facilidades para se adaptar-se as tecnologias. A interação dos jovens com as tecnologias, de acordo com Prensky (2001), implicou uma modificação no modo de pensar e processar as informações nas gerações atuais. Esta geração é deno pois são nativos na linguagem digital, ou seja, o contato com as diferentes tecnologias é intrínseco ao seu crescimento. Estes nativos digitais possuem fluência no envio de mensagens, na manipulação de jogos, arquivos, músicas, vídeos, filmes e softwares diversos, mas muitos, não sabem como criar softwares ou jogos com o computador, sabem apenas manipular o que foi programado por outras pessoas, conforme alerta Mark Surman (2013), diretor-executivo da Mozilla Foundation, para a necessidade de promover uma transformação na atual geração: o de consumidora para o de criadora de tecnologia. Sendo assim, precisamos buscar uma fluência digital, que requer não apenas a capacidade de comunicar, navegar e interagir na web, mas também a capacidade de criar e inventar com as novas mídias.

objetivo de melhorar o ensino e os ambientes de aprendizagem na sala de aula (Arends, 1995). A consequência destas características implica um ciclo em espiral de reflexões, definições de problemas, ações, observações e avaliações constantes, permitindo aos seus participantes a introdução de reajustes no plano de ação, levando assim a uma melhoria da qualidade da prática. A turma selecionada para este estudo de investigação foi o sexto ano turma A, dado que em TIC, a turma é dividida em duas partes, uma parte em Tecnologias de Informação e Comunicação e a outra tem Educação Tecnológica, a parte selecionada foi a primeira parte da turma, sendo esta constituída por 14 alunos. Foram considerados três os fatores a inter-relacionar neste projeto de investigação, a saber: Scratch, Aprendizagem Colaborativa e TIC. Tendo sido planeados como base de trabalho três ciclos, os quais foram pensados de maneira a tentar responder às questões de investigação. No primeiro ciclo iniciou-se à programação, foram planeadas três aulas de 50 minutos, com exemplos práticos utilizando comandos simples. O segundo ciclo foram planeadas 4 aulas de 50 minutos, primeiro foi dado um exemplo do labirinto (Figura 1), de seguida todos os alunos em grupo teriam de criar um labirinto ao seu gosto. No terceiro ciclo foram planeadas 6 aulas de 50 minutos, foi dado aos alunos um exemplo labirinto com vários níveis e com pontuação, de seguida os alunos teriam de criar um labirinto com vários níveis e com pontuação ao seu gosto.

O trabalho com a linguagem de programação tem sua importância na educação pelo fato de propiciar o desenvolvimento da criatividade e uma nova forma de expressar ideias. Segundo Souza (2013) o domínio desta linguagem possibilita, também que as pessoas se expressem no ambiente computacional e online, além de desenvolver o espírito de colaboração e disseminar o compartilhamento de ideias, fundamental para se ter uma participação social plena. Atualmente, há uma crescente valorização desta prática nas séries iniciais, de modo a garantir que o aluno não seja apenas um mero consumidor de informações, passivo , mas que seja capaz de produzir seus próprios conteúdos, jogos, entre outros recursos, descobrindo como criar e atuar em um ambiente informatizado. III.

Figure 1. Labirinto nivel 1

METODOLOGIA DE TRABALHO

Este trabalho seguiu a metodologia de Investigação Acão, já que esta era a que melhor se adaptava ao estudo em questão, sendo caracterizada por um protagonismo ativo e autónomo do professor, sendo ele que conduz o processo de investigação. Os facilitadores externos têm uma relação de cooperação com os professores, ajudando-os a articular as suas próprias preocupações, a planear a estratégia de mudança e a detetar os problemas, ajudando-os a refletir sobre os resultados das mudanças já efetuadas. Esta modalidade ajuda a desenvolver o raciocínio e o juízo prático dos professores, sendo este um excelente guia para orientar as práticas educativas, com o

Figure 2. Labirinto vários níveis

Como instrumentos de recolha de dados, utilizaram-se a observação direta e a entrevista. Estes instrumentos facilitam o registo de uma narrativa menos condicionada pelo método de investigação, além de proporcionarem uma maior autonomia na

CISTI 2015 | 293

associação de ideias e uma maior facilidade no discurso, tornando o objeto de estudo mais rico em detalhes (Almeida, Delicado, Alves e Carvalho, 2011). IV.

ANÁLISE DOS RESULTADOS

No fim dos três ciclos os alunos responderam a um Questionário de Auto-Avaliação /Avaliação dos Três ciclos. A tendência da avaliação é servir menos como reforço ou instrumento de controlo e mais como ferramenta de auto-análise (JONASSEN, 1991). Verificamos que estes três ciclos satisfizeram os alunos, a avaliação dos três ciclos foi positiva, o terceiro ciclo foi o que os alunos gostaram mais. A interação social como factor de desenvolvimento cognitivo foi estudada nos anos setenta, sob a influência de Piaget, mas VYGOTSKY (1962, 1978, 1985) vem introduzir uma dimensão mais lata ao fenómeno da interação, considerando que a interação com os pares mais competentes promove não somente novas aprendizagens, mas o desenvolvimento. Os resultados obtidos demonstraram que a linguagem visual foi bem recebida pelos alunos, que acharam este género de atividade estimulante, criativa e relevante. Estes resultados vão de encontro ao que investigação realizada nesta área (Papert, 1993) tem evidenciado, ao defender que as atividades de programação apresentam enormes potencialidades para melhorar o ensino em sala de aula e que os alunos ficam mais interessados quando o objetivo se encontra bem definido. V.

CONCLUSÕES

Desta forma, entendemos que o Scratch linguagem de programação escolhida para este caso de estudo atende, de forma prática e conceitual o desenvolvimento de competências e de habilidades necessárias para a formação do cidadão atuante no século XXI. O contato com múltiplas linguagens (imagens, áudio, animações, jogos etc) favorece o desenvolvimento crítico e perspicaz na análise de mídias pelos alunos. O incentivo ao pensamento criativo e a motivação para a procura de soluções inovadoras para problemas inesperados exigem uma atuação que requer uma postura autônoma, proativa, crítica, reflexiva, colaborativa, inclusiva e construtiva, uma vez que o mero consumo de conteúdos e programas já não é mais suficiente nesta sociedade. É preciso mais: transformar, criar e fundamentar o desenvolvimento da criatividade no dia a dia fazendo a diferença. REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3] [4] [5]

Almeida, A., Delicado, A., Alves, N., Carvalho, T. (2011). Crianças e Internet: usos e representações, a família e a escola: relatório do inquérito. Lisboa: ICS e Fundação Calouste Gulbenkian. ARENDS, R. (1995). Aprender a ensinar. Lisboa: McGraw-Hill. EDWARDS, D. (1987). El conocimiento compartido. Barcelona: Paidós/MEC nº 9, 1988. GAVE. Diário da República, Decreto-Lei n.º 6/2001. http://www.gave.min-edu.pt/np3content/?newsId=31& fileName=decreto_lei_6_2001.pdf JONASSEN, D. (1991). Objetivism versus Construtivism: Do We Need a New Philosophical

[6] [7] [8]

[9] [10]

[11]

[12] [13] [14] [15] [16]

[17] [18]

[19]

[20] [21] [22] [23]

[24] [25] [26]

MONEREO, C. (2007). Estratégias de Ensino e Aprendizagem. Colecção Práticas Pedagógicas - Edições ASA. Núcleo Minerva da Universidade de Évora (2000). http://www.minerva.uevora.pt/cscl of the computer. New York: Harvester/Wheatsheaf. Prensky, Marc. MCB University Press, Vol. 9 No. 5, October. Disponível em: http://www.marcprensky.com/writing/Prensky%20%20Digital%20Natives,%20Digital%20Immigrants%20-%20Part1.pdf Acesso em: 11 de janeiro de 2015. Paradigm? Educational Technology Research & Developmente, v.39, n.3, p.5-14. ROGOFF, B. (1982). Integrating Context and Cognitive Development. In LAM. Hillsdale NI: LEA. Souza, Clarisse S. de. (2013) Projeto leva ensino da programação às escolas. O Estado de São Paulo, Maio. Disponível em: http://blogs.estadao.com.br/link/?s=clarisse%20de%20Souza . Acesso em 11 de janeiro de 2015. Surman, Mark. (2013) Alfabetização digital é porta de entrada para o século 21, Folha, Fevereiro. Disponível em http://socialmedianews.com.br/2013/02/alfabetizacao-digital-e-porta-deentrada-para-o-seculo-21/ Acesso em: 11 de janeiro de 2015. VIGOTSKY, L. (1962). Thought and Language. Cambridge MA: MIT Press (texto original publicado em russo, 1934). VIGOTSKY, L. (1978). Mind and society: the development of higher psychological processes. Cambridge MA: Harvard University Press (texto original publicado em russo, 1932). VIGOTSKY, L. (1989). Pensamento e linguagem. 2.ed. São Paulo: Martins Fontes scolaire. In B. Schneuwly & J. P. Bronckart Delachaux et Niestlé. Maloney, J., Burd, L., Kafai, Y., Rusk, N., Silverman, B., and Resnick, M. (2004). Scratch: A Sneak Preview. Paper presented at the Second International Conference on Creating, Connecting, and Collaborating through Computing, Kyoto, Japan. http://llk.media.mit.edu/projects/scratch/ScratchSneakPreview.pdf Marques, M. T. (2008). Scratch?. Educação e Matemática, 96 (pp. 4548). http://eduscratch.dge.mec.pt/index.php?option=com_docman &task=doc_download&gid=11&Itemid=40 Marques, M. T. (2009). Recuperar o engenho a partir da necessidade, com recurso às tecnologias educativas: Contributo do ambiente gráfico de programação Scratch em contexto formal de aprendizagem. (Manuscrito não publicado). Lisboa: Fac. Psicologia e de Ciências da Educação, Univ. Lisboa. http://eduscratch.dge.mec.pt/index.php? option=com_docman&task=doc_download&gid=43&Itemid=40 Monroy-Hernández, A. (2007). ScratchR: sharing user-generated programmable media. Interaction Design for Children Conference, Aalborg, Denmark. http://web.mit.edu/~amonroy/www/ papers/idc07.pdf Monroy-Hernández, A. and Resnick, M. (2008). Empowering kids to create and share programmable media. Interactions, March-April 2008 (pp. 50-53). http://www.mit.edu/~amonroy/papers/interactions.pdf Papert, S. (2005). Teaching Children Thinking. Contemporary Issues in Technology and Teacher Education, 5 (3) (pp. 353-365). http://www.citejournal.org/articles/v5i3seminal3.pdf Resnick, M. (2003). Playful Learning and Creative Societies. Education Update online, February 2003. emhttp://www.educationupdate.com/ archives/2003/feb03/issue/child_playfullrng.html Resnick, M. (2007a). Sowing the Seeds for a more creative society. Learning and Leading with Technology, International Society for Technology in Education (ISTE), December/January 2007-08 (pp. 1822). http://web.media.mit.edu/~mres/papers/Learning-Leading-final.pdf CEC (2011). Digital Agenda Scoreboard, CEC. OECD (2009). 21st Century Skills and Competences for New Millennium Learners in OECD Countries. OECD -Skills for The 21st Century: Fostering Competitiveness, Growth and J .

CISTI 2015 | 294

O Uso de Jogos como Suporte da Aprendizagem Baseada em Problemas Games to Support Problem-Based Learning A. Andrade, D. Gouveia Virtual Campus Lda Porto, Portugal {antonio_andrade,david_gouveia}@virtual-campus.eu Como é que um jogo pode ser usado para aumentar a Resumo motivação dos alunos para uma determinada área científica, proporcionando ao mesmo tempo o desenvolvimento de competências pessoais e sociais? O jogo eCity é uma plataforma pedagógica para Aprendizagem Baseada em Problemas (PBL) tendo como base um jogo de simulação de cidades. O motor de simulação desenvolvido permite criar problemas específicos de matemática, ciências e engenharia relativos ao crescimento dessa cidade. O jogo é também usado para motivar os alunos do ensino secundário para um percurso académico em ciências e engenharia procurando contribuir para resolver o problema actual da falta de alunos e profissionais nestas áreas. Palavras Chave Aprendizagem baseada em problemas; Jogos educativos; Jogos sérios; Metodologia pedagógica. Abstract How can a game be used to motivate students towards a specific scientific area and, at the same time, support those students in the development of personal and social skills? eCity online game is an educational platform based on a city simulation engine designed to support Problem Based Learning (PBL) in the STEM area. The game is used to motivate high school students for an academic course in science and engineering helping to solve one of the current problems of society: the lack of students and professionals in these areas. Initial results have been promising in the motivation and satisfaction of the involved students and teachers. Keywords - Problem-based learning; Educational games; Serious games; Educational methodology.

I.

INTRODUÇÃO

Nos últimos anos, tem sido referido que os cursos de ensino superior são incapazes de produzir engenheiros com competências e capacidades críticas como trabalho em equipa, a liderança de uma equipa, a comunicação eficaz, a retenção de conhecimento, o raciocínio matemático, a adaptação a novos contextos, a análise de problemas e a procura de soluções usando estratégias de resolução adequadas [1-4]. menos estudantes são atraídos para a engenharia e as escolas de engenharia estão cada vez mais fora de contacto com o que é, de facto, a prática de engenharia. Não só não são atractivas para muitos estudantes, mas mesmo entre aqueles que se inscrevem há uma taxa de abandono elevada. Além disso, muitos dos estudantes que terminam o curso entram na vida profissional mal equipados para as interacções complexas e

F. Nogueira, P. Russo, C. Vaz de Carvalho GILT

Instituto Superior de Engenharia do Porto Porto, Portugal {pmsro,pmo,cmc}@isep.ipp.pt

multidisciplinares dos sistemas de engenharia do mundo real [5]. A aprendizagem baseada em problemas (PBL) é uma metodologia pedagógica onde a aprendizagem é promovida por desafios que os alunos têm de investigar e para os quais devem propôr e aplicar soluções adequadas. As áreas das ciências, tecnologia, engenharia e matemática (STEM, do Inglês original) são aquelas em que o PBL já mostrou ser uma alternativa e/ou complemento válido aos métodos tradicionais de aprendizagem. Por exemplo, no caso da engenharia alguns autores já confirmaram os benefícios da PBL - melhorias consideráveis no pensamento crítico, lateral e criativo, na definição de estratégias de resolução de problemas, na motivação intrínseca, na colaboração em grupo, na capacidade de comunicação, empreendedorismo e colaboração com a sociedade [1][6-9]. A. Ambientes Digitais de Aprendizagem para PBL A maioria dos cursos e atividades no formato PBL ainda se baseiam principalmente em atividades presenciais. No entanto, a utilização de Ambientes Virtuais de Aprendizagem (AVA) melhora a experiência e eficácia do PBL [6][10-14]. Um AVA é uma plataforma online que integra um conjunto de conceitos educativos. Esta definição engloba diferentes tipos de plataformas, como: Sistemas de aprendizagem colaborativa (CSCL) que permitem que individuos geograficamente separados possam realizar atividades PBL de forma síncrona e/ou assíncrona. Estes sistemas proporiconam a partilha de objectos de informação e comunicação entre estes individuos. que podem ser instanciados para a aprendizagem, pois envolvem a estimulação mental e física e desenvolvem capacidades práticas - forçam o jogador a decidir, a escolher, a definir prioridades, a resolver problemas [15]. Os jogos implicam capacidades de auto-aprendizagem (os jogadores são muitas vezes obrigados a procurar informação só para perceber o jogo), permitem a transferência do conhecimento para outros contextos e são inerentemente experienciais com o envolvimento de vários sentidos. Os Ambientes Virtuais 3D permitem que vários participantes se conectem simultaneamente e comuniquem com os colegas através de uma interface de mensagens instantâneas

CISTI 2015 | 295

e de interacção com artefatos digitais, incluindo a própria representação digital dos usuários, conhecidos como avatares. Todos estes ambientes ajudam à integração e à exploração de PBL no ensino de STEM ao envolver o aluno em atividades que simulam as exigências da vida real. No entanto, não é fácil implementar de forma efetiva uma abordagem PBL e algumas limitações potenciais devem ser prevenidas: devem apoiar os professores no desenvolvimento e na concepção de soluções localmente sustentáveis, respeitando e mantendo a autonomia dos professores. Às vezes, isso é minimizado [16,17]. Os sistemas colaborativos dependem completamente da dinâmica de grupo e da interação social como um fator chave para a colaboração [16]. Não é garantido que simplesmente combinando os alunos em grupos e dando-lhes todas as ferramentas de que precisam, isso levará a uma colaboração eficaz e à aprendizagem colaborativa.

Os resultados do projecto são essencialmente: a plataforma online baseada num simulador de desenvolvimento de uma cidade. Este ambiente PBL é projetado para permitir uma fácil transferência de aprendizagem para outras realidades devido à dinâmica que replica contextos reais e oferece formação prática em situações muito específicas. A plataforma está disponível gratuitamente durante e após o projecto para as escolas secundárias; plataforma e guias pedagógicos;

com configurações de

Uma metodologia pedagógica validada para integrar e replicar a plataforma eCity noutras escolas. E, complementarmente, uma metodologia motivacional para ser usada em escolas secundárias e profissionais de integrar a plataforma eCity como atividade complementar para os alunos desenvolverem o seu interesse e motivação para STEM.

Confiar profundamente nos AVAs como suporte à aprendizagem assume que cada aluno pretende envolver-se nessas tecnologias, o que nem sempre é certo. s e, embora sejam usados com sucesso nalgumas situações particulares o seu uso para uma ampla gama de estudantes nem sempre é possível [20]. Exemplos de iniciativas de PBL através de AVAs são CROCODILE [18], MTF [10], ProbSolv [3], PBLEEM [1], CME [19], IMELS [20] e Nucleo [21]. II.

O JOGO ECITY

Ao criar o jogo eCity pretendeu-se projectar, desenvolver e validar uma metodologia pedagógica, apoiado por um motor de simulação de desenvolvimento de uma cidade que estimula a integração e exploração contínua de PBL promovendo o interesse em STEM nos alunos do ensino secundário. A plataforma é usada de forma colaborativa por alunos de escolas secundárias e profissionais. Espera-se que seja um contexto estimulante devido à natureza e complexidade da gama de problemas que estão disponíveis na cidade virtual.

Fig. 1 Alunos turcos a jogar eCity

Fig. 2 Professores italianos a jogar eCity

A. Problemas a resolver (Provedor de Serviços de Internet): O cenário fornece um contacto inicial com o projecto de redes de serviços de Internet (ISPs) e explica, em traços gerais, como funciona uma rede de comunicação de dados. Os alunos são obrigados a desenhar uma rede para a cidade usando os elementos disponíveis e mantendo uma certa qualidade de serviço, com o custo mais baixo possível. : Os alunos têm um cenário com uma cidade com alguns milhares de habitantes. As centrais poluentes de produção de energia devem ser substituídas, num prazo de cinco anos, pelos parques eólicos para que a poluição seja reduzida para níveis aceitáveis. Os estudantes devem escolher a melhor localização para os parques eólicos, ou seja a que garante a melhor relação custo-benefício. Um orçamento apertado implica que a melhor solução deve ser escolhido no tempo determinado. Caso contrário, o jogador não terá dinheiro suficiente para instalar novas centrais.

CISTI 2015 | 296

Sinalização: O jogador deve mudar ou melhorar o sistema de sinalização da cidade para que os tempos de deslocamento para o trabalho sejam reduzidos de 20%. cção contra terremotos: Os alunos têm um mapa com três tipos diferentes de solo. Cada terreno tem preços diferentes, de modo que o aluno vai escolher o terreno, tipo de construção e pisos. Escolher apenas o tipo de solo correto não é suficiente para construir edifícios fortes. Os alunos têm que usar o orçamento de forma eficaz e seleccionar o tipo de construção e o número de pisos de forma a alojar o maior número de pessoas possível. Os alunos devem também criar hospitais, escolas, indústrias, áreas comerciais etc., e estas decisões afectarão o orçamento. Os alunos irão aprender quais os principais tipos de solos, a construção de estruturas e terão informação sobre protecção contra terremotos.

segunda opção, os alunos recebem um cenário em branco. Eles devem desenvolver a sua cidade por um determinado tempo e mostrar no final que seleccionaram as melhores escolhas em termos de poluição. : Todos os elementos da cidade têm de estar correctamente ligados a fontes de energia de uma forma eficaz. O motor de simulação tem centrais de produção e distribuição diferentes e plantas de distribuição com preços diferentes. Os jogadores têm de assegurar que não haverá quebra de distribuição por meio de conexões redundantes. Há também a possibilidade de alterar as necessidades de energia em termos de horas e eventos. (Por exemplo áreas comerciais e industriais exigirão mais energia durante os dias de trabalho). O problema pode incluir a poluição causada pelas centrais.

evenção de inundações: O cenário começa com uma cidade ocupando metade do terreno disponível, principalmente perto de um rio ou mar. A outra metade do terreno é montanhosa e de difícil construção. O jogador é informado da alta probabilidade de inundações periódicas e é convidado a desenvolver ainda mais a cidade até um valor pré-definido. Ele tem de decidir sobre a melhor estratégia para criar novas regiões de habitação, mantendo a prevenção de inundações em mente. O jogo procura alguns objectivos de aprendizagem: a compreensão do impacto das inundações periódicas numa cidade, o planeamento de uma estratégia de deslocalização de habitação para minimizar os danos na ocorrência de uma inundação, etc. : O aluno recebe informação sobre as características dos resíduos gerados (sólido, líquido ou gás) por parte das indústrias existentes na cidade. Com esta informação, o aluno deve seleccionar os tratamentos adequados para ter emissões em conformidade com as normas ambientais de eliminação dos contaminantes e de reciclagem. : A cidade precisa de um fornecimento de energia a partir de fontes diferentes. As recentes prospecções na área descobriram um depósito de gás natural que pode fornecer energia suficiente para cobrir o consumo regular cidade. A análise reflecte um conteúdo mensurável de compostos contendo enxofre, principalmente SH2 e CO2, que faz com que o gás inadequada nas atuais condições. A purificação de gás envolve a remoção das impurezas das correntes de gás sendo a operação primária uma das seguintes: absorção em solução alcalina, absorção física, permeação através de uma membrana e adsorção. O aluno tem de seleccionar o processo mais adequado em função da sua capacidade de produzir gás suficiente para cobrir a necessidade de energia de uma cidade (m3 de gás consumido por habitante). O aluno pode estudar também se o processo seleccionado vai aumentar o nível de contaminantes. Controle de poluição: A cidade tem um grande problema de poluição. Os jogadores têm de identificar as causas da poluição e encontrar estratégias para minimizar esse problema. Há duas possibilidades: na primeira, os alunos recebem um cenário com uma cidade com uma taxa muito elevada de poluição. Eles devem identificar as fontes de poluição e encontrar melhores alternativas com o orçamento dado. Na

Fig. 3 Cenário para o problema da distribuição de energia

III.

CONCLUSÕES

Os empregadores procuram recém-formados que possuam capacidades de aprendizagem ao longo da vida, que saibam abordar e resolver problemas do mundo real e que detenham competências-chave transferíveis como comunicação, trabalho em equipa, apresentação e literacia digital avançada. Assim, o sistema de ensino atual precisa de ser reformado uma vez que a abordagem tradicional não é a mais adequada para enfrentar este desafio. A aprendizagem baseada em problemas pode ser uma solução para esse problema. Especialmente quando ambientes digitais específicos são criadas para suportar essa forma de aprendizagem. Os ambientes de jogo encaixam-se bem nesta definição, fornecendo contextos ricos em desafios como base para os problemas. eCITY é uma proposta neste âmbito, utilizando um simulador urbano como contexto para o jogo. As características e competências dos alunos (nativos digitais) e a disponibilidade das tecnologias de informação e comunicação levam-nos a considerar que os objetivos do jogo eCity estão bem alinhados para motivar as novas gerações e despertar o seu interesse para a ciência e engenharia. Neste trabalho introduzimos as ideias e passos iniciais o desenvolvimento de jogos para apoiar a educação em ciência e engenharia. Um cenário urbano foi o adoptado devido à popularidade destes jogos.

CISTI 2015 | 297

AGRADECIMENTOS Parte deste trabalho foi apoiado pela Comissão Europeia através do Programa de Aprendizagem ao Longo da Vida, Projeto eCity, ref. 543573-LLP-1-2013-1-PT-KA3-KA3MP e da rede ICTWays, ref. 528103-LLP-1-2012-1-PTCOMENIUS-CNW. REFERÊNCIAS B IBLIOGRÁFICAS [1] [2]

[3] [4] [5] [6]

[7] [8] [9] [10]

TREE Teaching and Research in Engineering in Europe Special (2007). Problem based learning Xiangyun D., Stojcevski, A., (2009). Educational innovation problem project practice approaches in engineering education, 1st Ibero-American Symposium on Project Approaches for Engineering Education PAEE2009, Braga, Portugal Brodie M. (2009). Eproblem-based learning: Problem-based learning using virtual teams, European Journal of Engineering Education 34, no. 6, 497-509. Graaff E., Kolmos, A., (2003) Characteristics of problem-based learning, International Journal of Engineering Education 19, no. 5, 657-662 Fisher G., Wulf W., (2002), A Makeover for Engineering Education, Issues in Science and Technology, Volume XVIII Issue 3, Spring 2002 Lacuesta R., et al., (2009) Active learning through problem based learning methodology in engineering education, Proceedings of the 39th IEEE international conference on Frontiers in education conference, 530-535 Felder R., Woods, M., Stice, J., Rugacia, A., (2000) The future of engineering education ii. Teaching methods that work, Chemical Engineering Education 34, no. 1 Kolmos A., et al., (2004) Faculty development in nordic engineering education, Aalborg University Press Kolmos A., (2011). New trends in engineering education: Mega projects and globalization, Proceedings of the 1st EUCEET Association Conference, Patras, Greece. Kamoun N., Bousmah. M., Berraissoul, A. (2006). "Online method and environment for elaborate the project-based learning

[11] [12] [13] [14] [15] [16] [17]

specifications in higher education ", Proceedings of the 6th IEEE International Conference on Advanced Learning Technologies, ICALT, Kerkrade, The Netherlands Pereira H., Pinto G., (2004). Problem-based learning method simulation by virtual environment, IADIS International Conference WWW/Internet, Madrid, Spain Khalifa M., Lam, R., (2002) Web-based learning: Effects on learning process and outcome, IEEE Transactions on Education 45, no. 4, 350-356 Savin-Baden M., Wilkie, K., (2006). Problem-based learning online, Open University Press Coleman J., et al, (1998) Effectiveness of computer-aided learning as a direct replacement for lecturing in degree-level electronics, IEEE Transactions on Education 41, no. 177-184 Carvalho C.V., (2010). Game and simulation based learning, 9th European Conference on e-Learning, Porto Pot W., (2004). Means to improve social interaction in virtual learning environments, 1st Twente Caput & Referaat Conference, Enschede, Netherlands Sancho P., Fuentes, R., Gómez-Martín, P. P., FernándezManjón, B., (2009). Applying multiplayer role based learning in engineering education: Three case studies to analyze the impact Education 25, no. 4, 665-679.

[18] Miao Y. (2000), "Design and implementation of a collaborative

virtual problem-based learning environment," Fachbereich Informatik, vol. Doktor-Ingenieur, Der Technischen Universität Darmstadt, Darmstadt, Germany [19] McHugo C., Hall, T. (2005). Virtual learning environments (vles) for electronic engineering students, Proceedings of IASTED Internacional Conference WEB based Education, Grindenwald, Switzerland [20] Lau H., Mak, K., Ma, H. (2006). Imels: An e-learning platform for industrial engineering, Wiley Periodicals, Computer Applications in Engineering Education 14, no. 1 [21] Sancho P., Torrente, J., Marchiori, E., Fernández-Manjón, B. (2011). Enhancing moodle to support problem based learning: The nucleo experience, Proceedings of the 2nd IEEE Education Engineering Conference EDUCON 2011 32, no. 1

CISTI 2015 | 298

Design of Multimedia Systems for Children With some kind of Disabilities Diego Leonardo Heredia

Manuel Perez Cota

Universidad Nacional de Catamarca Facultad de Tecnología y Ciencias Aplicadas San Fernandodel Valle de Catamarca, Argentina [email protected]

Universidad de Vigo Vigo, Pontevedra, España [email protected]

Abstract Education, is nowadays and always the most important tool in the development of every person, without education a person suffers too much to adquire any new thing. People with disabilities has an extra load to get new skills. The objective of this paper is to show the research and design that allows to increase motivation in children with a special type of disability the problem of hearing, in this case we talk about children ranging from 7-14 years old. Keywords-Accessibility; universal Communication.

Hearing

Disability;

Integration;

INTRODUCTION As we said in abstract, education is education, is nowadays and always the most important tool in the development of every person, without education a person suffers too much to adquire any new thing, any new knowledge, any new abilities. We are going to centralize our study in deaf children, from 7-14 years old, but we will demonstrate that this kind of knowledge can be applied to other disabilities, only adapting the way things can be done. From an educational perspective the students with hearing disabilities are usually classified into two groups: hypoacusic and profoundly deaf. Hypoacusic students are those with impaired hearing which although is functional for everyday life they require the use of prostheses. These students can acquire spoken language through hearing. Profoundly deaf students are those whose hearing capabilities are not functional for daily life and does not allow them to acquire oral language through hearing. A child is considered profoundly deaf if their hearing loss is such that, even with good amplification, it is not possible to use what remains of their hearing. Their vision becomes their main link with the world and their main channel of communication. We speak of students with minor, medium, severe or profound hearing loss. More important deficits appear as the threshold is at or exceeds 70 decibels and is necessary to optimize the receptive conditions of their auditory pathway through well adapted prosthesis, auditory stimulation and logopedic support. A hearing disability is severe when the threshold is between 70 and 90 decibels and can only perceive some amplified words. The process of oral language acquisition

is not performed spontaneously, so it will need imperative speech therapy intervention to achieve intelligible speech and a speech that is structured and rich in vocabulary and language. When the hearing threshold is above 90 decibels we have a profound hearing disability where they cannot perceive speech through hearing. They need the help of alternative communication codes. When they have no other associated disabilities, deaf children have a similar intellectual capacity that have listeners, although their cognitive development may be limited in some cases, for their language difficulties, behavioral regulation, feelings of insecurity and difficulties in their social relations, caused by ignorance of social standards, which are also a consequence of the limitations of language. WHAT IS A DISABILITY A disability can be defined as a difficulty to use one of the senses of the body, any of senses can completely fails or can be incomplete, this word means, that part of it can fail, or simply work improperly. One of the largest and most serious problems that a person can suffer is the deficiency of language because through it the human being communicates, knows his past, can analyze, interpret and understand their present and consequently are able to project into the future as individuals and social beings. Today what it is known as hearing disability is generally considered as deafness, it is also used to refer to all types and degrees of hearing loss and often is used synonymously with hearing disability and hearing loss. "Deficiency hearing" is a broad term that covers a range of disabilities: from the surface to the depths. The problem that shows the profoundly deaf education is totally different from those who suffer hipoacusia only [1] because in the first group the hearing loss is so important that does not benefit from hearing aids. Causes for Hearing Loss Hearing loss can be due to three main causes External Ear Causes Usually the difficulties in the external ear are caused by heavy accumulations of wax and infection in the ear canal. These problems are often easily solved, as long as the care is quick and adequate to prevent hearing damage.

CISTI 2015 | 299

Middle Ear Causes In the middle ear the inconvenience that arises most often is the presence of fluid, inflammation or infection behind the eardrum, perforation or rupture of the eardrum and the presence of an abnormal cancellous bone growing in the middle ear called otosclerosis. This growth prevents the ear vibrate in response to sound waves, these being necessary for us to hear. In most of the problems of the outer and middle ear may become temporary and cured through proper medical treatment either by medication or surgery. This loss can also be helped with the use of hearing aids or implants. Inner Ear Causes In the case of the inner ear most of the problems turn out to be for damage to structures causing hearing loss, the most common cause is the natural process of aging, exposure to loud sounds, fractures in the head, excessive consumption of snuff and alcohol, and certain medications that are commonly used for their low price can also adversely affect hearing. The inner ear deafness has no medical treatment but in most cases with the support of headphones can get corrected. Hearing loss caused by a lesion in the outer or middle ear is called conductive hearing loss. When the lesion is located in the inner ear, called sensorineural hearing loss and their combination is known as mixed hearing loss. Common Problems With Hearing Loss Tinnitus They are sounds produced by the inner ear that people hear when an external physical sound is not presented. People affected describe the sound they perceive as a ringing, hissing, shock, rain clutter, beep, severe or acute buzz, purring, hiss, singing of crickets or a click, which is presented consistently and in others as an intermittent phenomenon. This can be classified into two categories: Is said to be subjective when the sound is perceived only for the affected person and not for the people around, this perception may be in one or both ears, or rather in the head of the person. While others, less frequently, are objective because they are perceived by both the affected person and also by others, either closer or using a stethoscope They can be Low-pitched or High-Pitched. The Low-pitched tones, have their origin in the middle ear, are usually changing, can not be permanently and are treatable either through medication or surgically. The high-pitched, originate in the inner ear, they are not changing and are generally permanent. Usually they have no treatment or it is not as effective, except for those caused by Meniere (inner ear disorder that affects balance and hearing) disease.

Many people suffer from tinnitus whose intensity is very low, being a discomfort that does not limit their quality of life, but when the discomfort is severe it completely alters due to psychological problems it creates: trouble getting sleep, total lack of concentration in professional activity, moody, irritable and aggressive behavior towards more exacerbated what the situation deserves action. UNIQUE FEATURES IN DIFFERENT AREAS OF DEVELOPMENT Children with hearing problems may not necessarily present deficits in intellectual capacity although its development is confronted with problems arising from the difficulties to acquire and internalize the language as hearing disability directly affects the process of acquisition and development thereof in them. Deficiency in one of the important sensory channels as hearing in the development of adaptive behavior, resulting in a significant loss individuals in the general stimulation. Deafness affects the generation and development of phonological representations (mental representations based on sounds and / or phonological groups speech) .Although speech perception through hearing is not the only source of phonological representation itself is the principal. However, the deaf have other means of access to phonological routes (sign language, lip-reading, spelling, etc.), but all of them are incomplete. Taken together, the phonological development of the deaf person exposed only at the level of lip-reading, is very incomplete due to the ambiguities of it. To solve this problem have been developed systems as the "Cued" so that the meaning of spoken message can be perceived through sight more clearly by people with hearing disabilities. The deaf children do not develop language spontaneously, acquisition and development is the result of an intentional learning mediatized by the environment; so the deaf children of hearing parents and mothers learn the oral language used in their home environment and parents and deaf mothers naturally learn sign language. In some cases, simultaneously acquire oral language and signs. According to some authors, the acquisition of sign language can be initiated early through the first natural gestures significance. This is comparable gestures, their characteristics and function, the first words in the listeners. The transparency of the first signs, with an iconic character, promotes liaison with the meaning in a more direct way than words, whose connection is more conventional. The delay in the vocabulary is due in part to the slow phonological development, but also the type of language stimulation and treatment they have received, in some cases more focused on the form of the word in its content. It is therefore very important to encourage deaf babies to make their oral emissions differentiated meaning, even in situations a defective phonological playback. The first limitations on the intellectual development of deaf children are manifested in symbolic play, which develops later and more limited due to a restricted social and communicative relationships.

CISTI 2015 | 300

Self-regulation and planning of behavior, the ability to anticipate situations and executive control of their own cognitive processes are dimensions in which language plays a prominent role, for this reason these students has longer delays and difficulties in the acquisition of these behaviors. The acquisition of knowledge is also closely related to the ability to receive information and work it properly. The deaf children, receiving less information, are more difficult to acquire this knowledge. These problems are also extended to reading texts. Special Educational Needs of Students with Hearing Disability To a greater or lesser extent, depending on the case and as a consequence of the impact of hearing disability in different areas of development mentioned in the previous section, the educational needs of these students can be specified as follows: The early acquisition of a communication system, whether oral or signed, allowing cognitive development and communication skills and promote the socialization process.

them with the perceived auditory pathway will improve the understanding of loudness and allow progressively take another reference on the sound and the human voice during the working sessions with oral language (place the hand of the child or the child's throat, cheeks, or the father, mother or the specialist teacher). Knowledge and significance of world filled with information from other senses: touch, taste, proprioception and kinesthetic information. The multisensory integration process must be part of early intervention programs and specialized educational services that are performed during childhood education. METHODOLOGY APPLIED For the development of multimedia system for hearing impaired children, has been considered using the OOHDM methodology (ObjectOriented Hypermedia Design Method) proposed by D. Schwabe and G.Rossi [3]. And aims to simplify and make more effective the design and construction of hypermedia applications. Characteristics of the OOHDM methodology [4]

The development the ability to comprehension and written expression, allowing independent learning and access to information.

The first is that OOHDM is based on the paradigm of object orientation. In this it differs from its predecessor HDM (Hypermedia Design Model).

Stimulation and use of residual hearing and the development of Phono-Articulatory capacity.

Another feature of OOHDM is that, unlike HDM, not only proposes a model to represent applications of communication technologies and information, but proposes a predetermined process for indicating the activities to be performed and the products must obtain at each stage of development.

The construction of positive self-concept and selfesteem and emotional development balanced. obtaining continuous information of what is happening in their environment and norms, values and attitudes to their social integration, where appropriate, by complementary to hearing pathways. The personalization of teaching and learning through curriculum adaptations that are necessary, the use of technical equipment for the use of residual hearing, speech therapy and curricular support and, where appropriate, acquisition and use of sign language. The capacities of attention and perception, visual and auditory play an important role in the acquisition process of communication code. The choice thereof will depend largely perceptual possibilities by both routes. In the educational process of the child or the deaf girl has to "make the most of the auditory pathway, with assistive technologies and visuals supports" [2] "The visual memory is related to the early stages of the concept formation, beginning with awareness of object permanence, ie, the child or the child understands that objects continue to exist even when not perceived immediately "[2]. Visual memory will enable lip-reading and learning the signs of Sign Language [2] [11]. The touch and vibratory perception is another capability that will complement the possibilities of exploration and understanding of the world for the hearing impaired. The reaction to certain vibrations and the possibility of associating

OOHDM primarily taken as starting the class model obtained in analyzing UML Unified Process. This model is called conceptual model. From this conceptual model OOHDM proposes be adding features that allows incorporate to this system representation all the aspects of multimedia applications. In a second stage of design, is part of the conceptual model and added to it all aspects of navigation, yielding a new class model called navigational model. Finally, this model serves as a basis for defining what in the jargon is called OOHDM abstract interface model. The abstract interface model represents the vision each user will have about the system. The conceptual design is intended to represent graphically elements that constitute the domain of the application, considering their behavior, structure and characteristics. In this modeling can observe classes, attributes and relationships between classes, which can be sounds, videos, text, images, etc. The Navigational method is constructed as a view about conceptual design. At this stage accessibility is provided in the system structure, which determine the possible navigation paths or roads and establish certain hierarchical level interaction or creating objects that will be transparent to users.

CISTI 2015 | 301

DESIGN The interaction that takes the user to the computer and more specifically with an educational program generates many answers and all with a high level of stimulation in a creative environment, allowing develop their motor skills of perception and cognition. The program is a fundamental piece that the teacher has in the classroom to teach, and in most cases the assistance of a mediator is needed to explain some key terms to consider for implementation. It is important that the program elements containing images, animations, and that they meet the functional requirements needed to develop a good program to apply communication technologies and information, for this we must take into account: Draw the attention of users through light signals. The content to be displayed must be just enough, so should be removed everything that does not need and to distribute it in a correct and timely manner when being used. Use visual images instead of words or symbols to understand more clearly something special, and so make it quick and easy learning. Incorporate motivating and stimulating program elements, so that users adapt quickly. Make use of words, phrases or concepts that are understandable by the user, so that do not require further explanation. When taking place in the program an internal problem, should be viewed through a message, the class and type of error as well as a possible solution to this situation. Avoid distractions with the animations created. CONCLUSIONS The multimedia system for hearing disabled children provides a learning tool where the student gets easier to knowledge through the use of communication technologies and information, well motivated and feeling comfortable when performing the activities while respecting the pace individual learning, stimulating their curiosity and encouraging the development of positive attitudes, all with the dynamic contribution of the images, animations and videos.

useful in our society, therefore it is very important to move forward in the development and construction of educational proposals of this nature and the use of new technology to make much faster, easier and more entertaining learning, for us all to make this dream come true. REFERENCES [1]

J.J. Delgado Domínguez, Grupo PrevInfad/PAPPS Infancia y Adolescencia, Pediatría Atención Primaria versión impresa ISSN 11397632, Detección precoz de la hipoacusia infantil,http://scielo.isciii.es/scielo.php?pid=S113976322011000200012&script=sci_arttext [2] María del Pilar Sánchez Hípola, Eduga: revista galega do ensino, ISSN 1133-911X, Nº 32, 2001 , págs. 89-106 Enciclopedia psicopedagógica de necesidades educativas especiales / coord. por Francisco Salvador Mata, Vol. 2, 2001,ISBN 849700-022-6 , págs. 205-228 [3] Schwabe, D. y Rossi G. "The Object-Oriented Hypermedia Design Method". Communications of the ACM, Agosto, 1995. para el desarrollo de sistemas de [4] Escalona Cuaresma, información global: análisis comparativo y Disponible en: http://www.lsi.us.es/docs/informes/EstadoActual.pdf., unpublished [5] Schwabe, D., Rossi G. y Barbosa, S. "Systematic Hypermedia Application Design with OOHDM", Tech. Rep., Departamento de Informática, PUCRio, Brasil, 1996. [6] Ricardo Soto De Giorgis, Wenceslao Palma Muñoz, Silvana Roncagliolo De La Horra. de un modelo navegacional para el desarrollo de aplicaciones basadas en Escuela de Ingeniería Informática, Universidad Católica de Valparaíso, Chile.(Libro electrónico). [7] IEEE Std 830. http://www.fdi.ucm.es/profesor/gmendez/docs/is0809/ieee830.pdf. [8] Nuevas Tecnologias Aplicadas a la Sordera. Disponible en: http://tecnologia-y-deficiencia-auditiva.blogspot.com.ar/(Consultada: 26 de Octubre 2014), [9] Tecnologias sin Barreras Programas informáticos para niños sordos. Disponible enhttp://tecnologiasinbarreras.blogspot.com.ar/2007/12/programasinformticos-para-nios-sordos.htm; [10] Juegos y Material Didáctico en Lengua de Señas Argentina. Disponible enhttp://didacticoslsa.blogspot.com/2008/01/proyecto.htmlunpublished [11] María Ignacia Massone, Edith Moroni, Marina Simón (2001). Curso Graficado de Lengua de Señas Argentina. (Edición especial) Posadas, Argentina. Editorial Universitaria, Universidad Nacional de Misiones [12] Silvana Veinberg, Marisa Macchi (2005). "Estrategias de prealfabetización para niños sordos". Buenos Aires, Argentina. Editorial: Noveduc ISBN: 987-538-137-3 Págs.: 224 [13] Propuesta de conceptualización de las personas sordas e hipoacúsicas en el contexto pedagógico. Disponible http://www.rieoei.org/970kenia.htm [14] Confederación Argentina de Sordos. ww.cas.org.ar/index-2.html [15] Problemas de la audición y sordera - National Library of Medicine. ww.nlm.nih.gov/medlineplus/spanish/hearingdisordersanddeafness.html,

The multimedia system for children with hearing disability is a computational aid focused on children who are beginning their studies of sign language, also used as teaching support material in classes by teachers. In conclusion we can say that children who suffer from hearing disability, visual, motor or other deficiency are as capable as those that are not, patience and above all the knowledge in teaching these children make them individuals

CISTI 2015 | 302

Simpósio Doutoral

CISTI 2015 | 303

The success of IS/IT projects in the healthcare sector stakeholders perceptions

Jorge Gomes ADVANCE ISEG, Universidade de Lisboa Lisboa, Portugal [email protected]

Mário Romão Sistemas de Informação e Gestão de Operações ISEG, Universidade de Lisboa

Lisboa, Portugal [email protected]

Healthcare organisations must improve their business Abstract practices and internal procedures in order to answer the increasing demanding of health professionals and the general public for better information. Hospitals adopt a patient-centred care approach and invest massively in information systems and technology (IS/IT), in the hope that these investments will improve medical care and patient demands. From the point of view of public service, the focus of healthcare system is the patient, therefore any interventions should be based on their needs and expectations. It becomes more and more important that IS/IT investments support, not only short-term objectives, but also long-term benefits, in order to provide a proper service for organisations, professionals and end-users. The main objective of our research is to study how organisational maturity, enhanced by investments in IS/IT, project management and best practices, leads to successful projects in health system organisations. The Healthcare Data Platform is designed to be a health data sharing system, which facilitates the distribution of clinical information to the different agents that provide healthcare in the country. The rational of our model is that organisational maturity has a positive effect on project success, and that this success is also positively enhanced by the use of project management practices. We emphasise that this combination of approaches can increase the effectiveness of projects. Furthermore, it can also improve confidence that the results of investments will meet stakeholder expectations, by realising benefits and by adding a perceived value to organisations. Keywords - Maturity Models, Project Success, Project Management, IS/IT investments

approaches, as a means of strengthening the final results of IS/IT projects in the healthcare sector. It is the authors' belief that this combination of approaches enhances both the success of projects and benefits realization. It is also important to emphasise that by taking advantage of the specific features of each of these approaches, their structure will certainly increase the effectiveness of IS/IT projects in the health sector. The maturity models approach provides a framework that helps enable organisations to increase their capability to deliver projects on schedule, within budget and according to the desired technical performance [9]. Project maturity models assume that project success will increase through standardisation [10]. Projects are temporary achievements, used to solve various types of tasks with variable size, and are applicable in a very broad range of business sectors [11]. Project management coordinates skills and organisational knowledge, and follows the progress of a set of pre-established activities in order to achieve objectives [12]. Project management creates value by providing relevant information which helps organisations improve their performance. Many organisations fail to review whether the planned benefits of IS/IT projects have been achieved, or not, as they do not possess sufficient resources to undertake a benefit review and are constantly under pressure to deliver other projects [13]. Benefits management identifies goals and benefits and the way to achieve them by combining organisational changes and investments in IS/IT [14] [15]. The research questions that guide this work are the following: How do the maturity of health organisations promote the success of IS/IT projects?

INTRODUCTION Healthcare organisations today are under pressure to provide more and better information, faster services, at prices that are expected to be reduced. Studies in the United States identified that 56% to 79% of Internet users seek for health information online [1] [2]. The Internet has been described as having the potential to encourage patients to participate [3] [4]. However, some potential dangers are recognised, including the dissemination of inaccurate and inappropriate information [5] [6]. The challenges facing healthcare organisations require more comprehensive and integrated solutions and efficient resource management as a means to eliminate inefficiencies and to achieve promised benefits. Organisations recognise project management as being a fundamental tool for the development of initiatives that lead to the implementation of their strategies [7] [8]. Our research focuses on the combination of the project management and maturity models

What tools can be used to improve the chances of success for IS/IT projects in the Health sector? What are the critical factors that need to be taken into consideration for the success of these projects? LITERATURE REVIEW A.

IS/IT investments

"Does IS/IT spending in fact lead to higher productivity?" This is a fundamental issue that has been studied by scholars over the last 30 years, and it has become known as the productivity paradox . Brynjolfsson [16] introduces the ent of information and technology as being a possible explanation . In line with this argument, other researchers argue that most organisations are exclusively focused on the implementation of the system or technology,

CISTI 2015 | 304

instead of focusing on the realisation of promised expectations and previously-identified benefits [14] [15]. Henderson and Venkatraman state that the inability to realise value from IS/IT investments is in part due to the lack of alignment between business and IT strategies [17]. Whilst there is general agreement that IS/IT does indeed contribute to adding business value, there is uncertainty as to how these contributions were really obtained [17] [18] [19]. Although many studies have focused on the consequences of IS/IT investments, fewer studies have examined factors that impact the capability of IS/IT [19] [20]. B.

Project Management

The Association for Project Management (APM) [21] defines a project as being a unique and temporary initiative, which is carried out to achieve a particular purpose. Similarly, The Project Management Institute (PMI) [22] stresses that a project is a limited effort in time, undertaken to create a product, service or a result. The essence of project management is to support the implementation of these temporal initiatives under the framework of an competitive strategy, in order to successfully deliver a particular outcome [23] [24]. Project management is thus a set of management activities that is required to ensure that projects [16] which are defined, planned and monitored, proceed to achieve agreed objectives and benefits [19]. Kerzner [25] highlights the importance of project management in the planning, organisation and control of resources, and in helping to achieve, not only short-term goals, but also broader, temporal objectives. C.

Project Success

Although there may be differences in project management approaches, the vast majority of authors agree on the inclusion of cost, time and quality as criteria for measuring the progress of achieving project objectives [26]. It appears that determining whether a project is a success, or not, is far more complex. Success is perceived differently by the different parties involved in the projects (stakeholders) [27]. The differences in success criteria definition should reflect the different interests and points of view, which leads us to conclude that project success is a multidimensional approach [27] [28]. Success criteria known as iron have been criticised for their exclusive focus on the project management process, to the detriment of including the vision and goals of the different stakeholders [26] [29] [30]. According to Bannerman [30], research on the concept of project success was developed around three different strands: The identification of factors contributing to project success [31] [32] [33] [34] [35] [36]. The identification of other contingent variables which can influence the results of a project, such as [37] size, type [33] [38], life cycle phases [28] or, complexity [39]. The definition of the criteria by which a project is considered to be a success or a failure. The improvement in the success of projects results from increased maturity and organisational competence [40] [41]. Higher levels of maturity will in most cases lead to improved

project outcomes [42]. Projects which have multiple stakeholders, with different perspectives about the purpose of the project, usually have different expectations as to what the project should achieve [43] [44]. Since the success of a project depends on the perceptions of a large number of stakeholders, "absolute success" probably never exists in project management, but only "perceived success" [31]. In the academic literature, we found examples of projects that have successfully completed the criteria of the "iron triangle", but resulted in disappointing business experiences [45]. On the other hand, initiatives that did not meet the constraints of cost and time later proved to be successful [34]. The understanding of the concept of project success has evolved over recent decades, and a gradual understanding is now emerging that project success requires a broader and more comprehensive definition. Walsham [46] claims that the participation of different stakeholders groups in the design and development process can be considered to be essential for a success, and Kagioglou, Cooper, Aouad and Sexton [47] highlight that project success relies on the right people having the right information, at the right time, and that this is supported by the active involvement of all participants, especially during the early phase of a project. D.

Maturity Models

There is little evidence to suggest that process capability improvement results in improved project success, although a few studies are promising in this respect[48] [49]. The last two decades have seen the publication of a significant collection of articles and papers on organisational maturity [50]. Maturity models have become an important evaluation tool for measuring the internal and external capabilities of organisations. The main objective of the maturity models approach is to provide a theoretical framework for improving the business outcome of an organisation, for assessing their strengths and weaknesses, and also for allowing comparisons with the sector good practices and by benchmarking with similar organisations [51] [52]. The works of Ibbs and Kwak [52] [53], and Ibbs and Reginato [54], both focus on the recognition of the benefits of investment in project management skills in organisations. Several studies have discussed the issue of the correlation between the level of maturity and the performance of projects [48] [55] [52]. In an IS/IT discipline, maturity is considered to be a measure for evaluating an organization capabilities [56]. Measuring the maturity of organisations is a difficult and somewhat subjective task; as such an audit process focuses mainly on individual tasks [57]. Skulmoski [58] recommends a vision in which competence and maturity are linked and focused on project success. The Office of Government Commerce (OGC) [59] establishes a set of reasons as to why organisations choose the use of maturity models, such as: Justifying investment portfolios. Improving project management. Gaining recognition for the quality of their product or services.

CISTI 2015 | 305

Gaining a better understanding of their strengths and weaknesses, in order to better resolve their inefficiencies . Maturity assessment usually involves variation over five stages of development [60], and assessment procedures which help organizations understand their current position and which determine their future direction. The assumption that underlies the maturity models approach is that there is a relationship between higher levels of maturity and the project success. HEALTHCARE SECTOR A.

The use of IS/IT in healthcare

Today, healthcare organisations are increasing focusing on the need for investment in IS/IT, with the goal of achieving the minimum level of benefits that these projects can attain. A common characteristic of many unsuccessful projects is the vagueness with which the expected benefits are defined [61]. The study of the success or failure of these initiatives has become vitally important for the performance of these organisations [62] [63]. Since the 1990´s, the health sector has sought to improve its effectiveness and efficiency by adopting IS/IT to increase the levels of quality of healthcare [64]. The use of IS/IT in health is recognised as being a major factor that has improved clinical practices and supportive care [65] [66]. The use of these systems provides an important support for specialised services, and increases the efficiency, quality and safety of patient care and also reduces medical errors [67]. It is not always investments in IS/IT that result in efficiency and effectiveness gains, so it thus becomes essential to evaluate those factors that limit performance and to identify opportunities for enhancing their use [68]. IS/IT has the potential to dramatically change the way individuals or society see the healthcare sector, and to provide tremendous opportunities for supporting professionals, and for improving effectiveness and efficiency in the health sector [69]. There is a growing consensus that organisational factors are far more critical to the successful implementation of IS than technical considerations [70]. B.

Successful change

Achieving successful change is much easier if all stakeholders are committed, and the earlier this commitment is achieved, the smoother is the path to a successful outcome [71]. These profound changes implicate important ethical challenges. For decades patients have been sharing relevant personal data with their doctors, in order to facilitate a correct diagnosis. Accumulated medical records represents a significant source of information, which includes personal identification, medical history, records of treatments and medication, together with an analysis of psychological profiles and subjective assessments of personality or mental state, amongst others [72]. This information can be shared, in order to improve efficiency in the health system, and can be used to carry out research for the advancement of medical science [73]. However, it can also be used by other healthcare providers, such as clinics, laboratories, the pharmaceutical industry, health authorities, or insurances companies, which raise some issues about the protection of this strictly personal information. We live in a time when healthcare providers

generate a significant amount of personal data about patients, and a major obstacle to the management of this information is the difficulty, or inability, of sharing across systems and between organisations [74]. C.

The critical success factors

There is a widespread feeling that a significant proportion of initiatives in IS/IT have failed [75] [76]. Studies have identified high failure rates in IS/IT projects in various sectors, including that of healthcare, particularly in hospitals [77] [78]. The results of the implementation of IS/IT projects in healthcare have revealed a waste of financial resources in acquiring large sized systems, which are totally ineffective [79]. The implementation of IS/IT systems in the health sector is distinct in various aspects from that of other projects, in other industries. The key aspects are: the environment, diversity of systems and devices that need to work, together with the challenge of integration and interoperability that is required to meet the expectations of different stakeholder groups about what constitutes project success [80]. Healthcare projects are a complex undertaking, which depend largely on the quality of existing information [81]. Proper training is a major determinant for success in the adoption of IS/IT by health professionals, and it has a great influence on the integration of technologies in clinical practice [82]. The effectiveness of interventions aimed at the integration of IS/IT applications in the practices of health professionals tends to be influenced by several factors, which are related to individuals, professional groups, organisational and contextual characteristics, and the nature of the intervention per se [83] [84]. One of the most critical factors that is recognised by the academic literature, is resistance to change by healthcare professionals, particularly amongst doctors [85] [86]. The complexity of systems, together with organisational diversity and the volume of investment required, as well as failure in adopting IS/IT, is justified largely by the way IS/IT is implemented, and by the need to identify best practices and to act on a number of critical factors in order to reduce the chance of failure [87] [88]. Reyes-Alcázar, Torres-Olivera, NúñesGarcia and Almuedo-Paz [89] point out that critical success factors are particular elements of the organisation of the internal and external environment, which is necessary to ensure goal attainment and the success of a project. D.

The Portuguese environment

In alignment with that which has been happening in other European countries, the Portuguese reality has shown a growing concern by end-users, the public in general, health professionals, managers and policy makers, to obtain more and better health information. These concerns have led to the implementation of integrated health IS/IT systems, with the aim of improving the delivery of healthcare services and of satisfying the demands of the various players, and of complying with European laws and edicts [90]. These IS/IT systems are required as a means of providing answers to the varied strategic guidelines of this sector, and in particular with regard to the following aspects [91]: Resource accessibility. Equity, improvement and continuity in health care.

CISTI 2015 | 306

System sustainability.

1.

Whether the causal variable (X) is correlated with variable (Y), using Y as the dependent variable in a regression equation, and X as an independent variable testing path c.

2.

Whether the causal variable (X) is correlated with the mediator (M), using the variable M as a dependent in the regression equation, and X as independent - testing path a.

3.

Whether the mediator (M) affects the dependent variable (Y), using Y as the dependent variable in a regression equation, and X and M as independents testing path b.

4.

Finally, M completely mediates the relationship X Y, when the X effect is zero.

Integrated management of public health. Integrated management and transparency of processes. The future model of IS/IT for healthcare must ensure compliance with the strategic directions outlined in the National Health Plan 2012-2016 (NSP) Programme, as well as European Union commitments [92]. This model advocates a patient-centred approach during its life cycle, and integrated diseases management, which contributes to achieving more and better health for all citizens in a sustainable manner [90]. The implementation of the Healthcare Data Platform (HDP) tries to respond to the challenges that face this sector. HDP enables the consultation of patient clinical data anywhere in the country. Of particular importance is the sharing and integration of information for end-users and health professionals, which enhances gains in health, and facilitates the diagnosis process, and the continued treatment of patients. However many uncertainties and challenges still exist, as well as constraints, ranging from a lack of funding, through to the diversity of subsystems, the installation of different technological solutions, interoperability and other restrictions that may well prevent the successful implementation of this platform. The full implementation of the project will promote a multidimensional organisational transformation. There will be a major change in terms of culture, processes and procedures, human resources and infrastructures.

The effects of both (3) and (4) are estimated in the same equation. If all four steps are completed, then the data are consistent with the hypothesis that the variable M completely mediates the X Y relationship. However, if only the first three stages are completed, then there is only partial mediation. B.

The constructs

In this model, organizational maturity and project management are constructs consisting of seven and ten dimensions respectively (Fig. 2 and Fig. 3). Benefits management

CONCEPTUAL MODEL A.

Mediation Model

Supported by the literature review, we propose the following conceptual research mediation model (Fig. 1), which is based on Baron and Kenny [93] definition of a mediator being a variable, to the extent that it accounts for the relationship between the independent variable and the outcome variable.

Resource management

Financial management

Organizational Maturity

Risk management

path b

(X) Organisational Maturity

path c

Organizational governance

Stakeholder engagement s

(M) Project Management path a

Management control

Figure 2. Organizational Maturity P3M3 approach [95]

(Y) Project Success

Scope management

Integration management

Time management

Figure 1. Mediation model.

The mediation model offers an explanation for how, or why, two variables are related, where an intervening or mediating variable is hypothesised to be intermediate in the relation between an independent variable, and an outcome [94]. Accordingly, we developed the following hypothesis:

Cost management Risk management

(H1) - There is a direct relationship between organisational maturity (X) and the success of the project (Y), which is mediated by project management (M). In order to establish mediation, it is necessary to verify the following steps [93]:

Project Management

Quality management

Procurement management Stakeholders management Human resources management

Communications management

Figure 3. Project Management PMBoK v.5 approach [96]

CISTI 2015 | 307

Similarly, the project success is conceptualized as a construct consisting of six dimensions, represented by the first order factors depicted in Fig. 4. Time management

Establishing a formal method to plan and evaluate objectives, expectations and benefits, in line with initial requirements, and, finally;

Cost management

Quality requirements Stakeholders expectations

Creating a greater awareness of how project results lead to achieving objectives and the corresponding benefits;

Project Success

Strategic alignment Organizational change

Figure 4. Project success approach

The rational of our model is that organizational maturity has a positive effect on project success with the mediation of project management. METHODOLOGY The study will follow a positivist approach, which considers that knowledge can be codified without being influenced by the researcher. As the scientific rigour in this kind of research paradigm is of crucial importance, in order to truthfully explain the social reality under investigation, the study will develop a research model and a set of hypotheses from the existing literature and theories, which will support and guide the research. Hypothesis testing will allow for an understanding of the nature of the relationship between study variables. This research is primarily quantitative and confirmatory in nature, rooted in research model hypothesis testing. Therefore, a qualitative phase was first performed, through a set of interviews with experts, which was aimed at defining and validating the central constructs of the research model. The interviews were conducted to explore the use of concepts that represent the core of our research.. Subsequently, a pre-test process was carried out to validate the consistency of statistical variables. The study will be based on a crosssectional survey, as this explicitly excludes the dimension of time. The cross sectional design entails the collection of data from several cases, at a single point in time, in order to collect a set of quantitative data which is related with more than two variables, which are then subsequently examined to try and detect patterns of association [97]. EXPECTED RESULTS Although project management emerges as one of the main approaches employed by organisations, there is no strong evidence in the literature of the success of the implementation of any of the available approaches. We hope that our study will show that organisational maturity contributes to the success of the project through the systematic application of project management best practices, namely by: The involvement of different stakeholders in defining objectives, expectations and benefits;

Creating a learning environment and continuous improvement The combination of project management and organisational process maturity approaches provides a more efficient and useful tool for supporting decision-making. The proposed model tries to prove that it is easier to implement best practices in project management in organisations that have higher levels of organisational maturity, and also that the correct combination between investments in IS/IT and management practices can be a positive influence, leading to successful projects. We also hope to conclude that higher levels of organisational maturity has a positive influence on the success of projects being implemented by organisations, particularly in cases were good project management practices are in evidence. REFERENCES [1]

[2] [3] [4] [5] [6]

L. Baker, T. H. Wagner, S. Singer, and M.

the f the American Medical Association, vol. 289, No. 18, 2003, pp. 24002406. B. Internal Medicine, vol.165, No. 22, 2005, pp. 2618-2624. Life Project, Washington DC, 2005. http://www.pewinternet.org/2005/05/17/health-information-online/. M. L. Ybarra, and An 75, No.1, 2006, pp. 29-41. S. R. Cotton, and S. Social Science & Medicine, vol. 59, No. 9, 2004, pp. 1795-1806. H. K. Andreassen, M. Trondsen, P. E. Kummervold, D. Gammon, and P. Hjortdahl, -mediated communication with their 2, 2006, pp. 238248.

[7] 2005, pp. 7-16. [8] [9]

821. G. Levin, and Horizons, vol. 2, No. 3, 2000, pp. 1-7.

vol. 39, 2002, pp. 803-

[10] of Project Management, vol. 23, 2005, pp. 181-192. [11]

European Management Journal, vol. 19, No. 1, 2001, pp. 92 100. [12] S. success factors for ERPThe Open Information Systems Journal, vol. 3, 2009, pp. 14-25. [13] P. Bennington, D. Bacca projects June 2004. [14]

CISTI 2015 | 308

Journal of IT/Business Alignment and Governance, vol. 4, No. 1, 2013, pp. 44-54. [15] J. Ward, and E. Daniel, Benefits Management, Delivering Value from IS and IT Investments, John Wiley & Sons: Chichester, UK, 2006. -level Evidence on the [16] E. Brynjolfsson, and 42, No. 4, 1996, pp. 541-558. [17]

ournal, 1999. [18] N. Melville, K. Kraemer, and and Organizational Performance: An Integrative Model of IT Business 2004, pp. 283-321. [19] S. Devaraj, and Information Technology: Is Actual Usage the Missing Link? Management Science, vol. 49, No. 3, 2003, pp. 273-289. [20] 1993, pp. 67-77. [21] Association for Project Management, Body of Knowledge, 5th ed., Association for Project Management, 2006. [22] Project Management Institute, PMI Lexicon of Project Management Terms, version 2.0, Project Management Institute Inc.: Newtown Square, Pennsylvania, 2012. [23] D. Milosevic, Project management toolbox: tools and techniques for the practicing project manager, John Wiley & Sons: Hoboken, New Jersey, 2003. [24] A. Shenhar, and D. Dvir, Reinventing Project Management: The Diamond Approach to Successful Growth and Innovation, Harvard Business School Press: Boston, 2007. [25] H. Kerzner, Project management: A systems approach to planning, scheduling, and controlling, John Wiley & Sons: New York, 2009. [26] Guesses and a 1999, pp. 337-342. [27] M. Freeman, and [28] J. K. Pinto, and 269-276.

, pp.

No. 1, 1989, pp. 49-62. [34] J. K. Pinto, and measurement techniques, 1988, pp. 67-72. [35] R. L. Schultz, D. P. Slevin, and

[37]

Engineering, Construction and Architectural Management Journal, vol. 7, No. 2, 2000, pp. 141-153. [48]

Project Management Journal, vol. 36, 2006, pp. 62-73.

[49] [50]

, pp. 8-17.

No. 4, 1999, pp. 25-32. [30] P. Bannerman, Defining project success: a Multilevel Framework, in Proceedings of Project Management Institute Research Conference: Warsaw, 2008. [31] B. N. Baker, D. C. Murphy, and D. Fisher, Factors affecting project success, In Cleland, D.I., King, W.R. (Eds.). Project Management Handbook, 2nd edition, Van Nostrand Reinhold, New York, 1988, pp. 902-919. [32] T. CookeJournal of Project Management, vol. 20, 2002, pp. 185-190. [33] J. K. Pinto, and

pp. 57-70.

, pp. 111-126. [39] A. J. Shenhar, and R. M. Wideman, Project management: from genesis to content to classification, INFORMS conference: Washington, DC, 1996. http://www.maxwideman.com/papers/genesis/genesis.pdf [40] R. Sergeant, C. Hatcher, B. Trigunarsyah, V. Coffey, J. Kraatz, Creating value in Project Management using PINCE 2, Research Project of Queenland University of Technology, Australia and Office of Government Commerce, UK, 2010. [41] Engineering, vol. 49, No.6, 2001, pp. 11-19. [42] A. Nieto-Rodriguez, D. Evrard, Boosting Business Performance through Programme and Project Management: A first global survey on the current state of Project Management Maturity in Organisations across the World, PriceWaterhouseCoopers, London, 2004. International [43] C. Journal of Project Management, vol. 17, No. 4, 1999, pp. 243-248. [44] K. Lyytinen, and Oxford Surveys in Information Technology, vol. 4, 1987, pp. 257-309. [45] A. J. Shenhar, D. Dvir, W. Guth, T. Lechler, P. Panatakul, and M. Poli, Project strategy: The missing link, in Proceedings of Academy of Management Annual Meeting: Honolulu, Hawaii, USA, 2005. [46] G. Walsham, Interpreting Information Systems in Organizations, John Wiley & Sons: Chichester, UK, 1993. [47] M. Kagioglou, R. Cooper, G. Aouad, and M. Sexton, Rethinking

-Service Journal

vol. 5, 2006, pp. 27-42.

[29]

1987, pp. 34-46. [36] D. P. Slevin, and J. K. Pinto,

[38] A. J. Shenhar, A. Tishler, D. Dvir, S. Lipovetsky, and T. Lechler,

,

surviving mission impossible projects, Prentice Hall PTR Upper Saddle River: New Jersey, USA, 1999.

pp. 1317-1339.

on and Software Technology, vol. 54, No. 12,

[51] [52] W. C. Ibbs, and Project Management Journal, vol. 31, No. 1, 2000, pp. 32-43. [53] W. C. Ibbs, and Y. H. Kwak, "Measuring Project Management's Return on Investment," PM Network, 1997, pp. 36-38. [54] W. C. Ibbs, and J. Reginato, Quantifying the value of Project Management, Project Management Institute, Inc.:Pennsylvania, Newton Square, 2002. [55] J. J. Jiang, G. Klein, H. G. Hwang, J. Huang, and exploration of the relationship between software development process , 2004, pp. 279-288. [56] M. Rosemann, and T. de Bruin, Towards a business process management maturity model, in Proceedings of the ECIS2005, 13th European Conference on Information Systems: Regensburg, Germany, 2005. [57] E. S. Anderson, and International Journal of Project Management, vol. 21, 2003, pp. 457461. [58] Engineering, vol. 43, 2001, pp. 11-19. [59] Office of Government Commerce, P3M3-Project Management SelfAssessment, Office of Government Commerce: London, UK, 2010. [60] K. Jugdev, and Journal, vol. 33, No. 4, 2002, pp. 4-14.

CISTI 2015 | 309

[61] G. Reiss, M. Anthony, J. Chapman, G. Leigh, A. Pyne, and P. Rayner, Gower Handbook of Programme Management, Gower Publishing, 2006. [62] C. Delpierre, L. Cuzin, J. Fillaux, M. Alvarez, P. Massip, and T. Lang, -based patient record systems and International Journal for Quality in Health Care, vol. 16, No. 5, 2004, pp. 407-416. [63] B. Rahimi, and systems in health care sett Systems, vol. 35, No. 5, 2007, pp. 397-432. [64] W. Raghupathi, and healthcare: a state-of-theManagement, vol. 1, No. 1, 1999, pp. 1 - 15. [65] 1997, pp. 83-90. [66] C. J. McDonald, J. M. Overhage, P. R. Dexter, L. Blevins, J. MeeksJohnson, J. G. Suico, M. C. Tucker, and G. Schadow, Medical Association, vol. 280, No. 15, 1998, pp. 1325-1329. - based [67] C. Low, and hospital information system outsourcing provider, Journal of Medical Systems, vol. 36, No. 6, 2012, pp. 3543-3553. [68] ISCTE-IUL, FM-UP, and DSI-UM, Oportunidade de Melhoria nos Sistemas de Informação em Saúde: a Visão dos Hospitais Públicos, Relatório Final, ACSS, 2012. [69] E. Ammenwerth, C. Iller, and -adoption and the interaction of task, technology and individuals: a fit framework and a No. 3, 2006. [70] M. L. Markus, S. Axline, D. Petrie, and C. Tanis, Learning from adopters experiences with ERP: Problems encountered and success achieved, Journal of Information Technology, vol. 14, No. 4, 2000, pp. 245 265. [71] G. Bradley, Benefit Realization Management: A Practical Guide for Achieving Benefits through Change, Gower: Aldershot, Hants, England, 2006. [72] Communications of the ACM, vol. 47, No. 7, 2004, pp. 25-28. [73] Law, Medicine & Ethics, vol.31, No.4, 2003, pp. 663-671. [74] J. Grimson, W. Grimson, and 2000, pp. 49-55. [75] N. Korac-Boisvert, and -care IT disasters in public sector organisations Policy, vol.4, No. 2, 1995, pp. 131-161. [76] R. B. Heeks, and A. Davies, Different approaches to information age, in R.B. Heeks (ed.) Reinventing Government in the Information Age, Routledge; London, UK, 1999. [77] B. Kaplan, and K. D. Harristhe American Medical Informatics Association, vol. 16, No. 3, 2009, pp. 291-299. [78] R. L. Wears, and still waiting for Godot, Journal of the American Medical Association, vol. 293, No. 10, 2005, pp. 1261-1263. [79] uccess and

[80] M. Abouzhara, Causes of failure in Healthcare IT projects, in Proceedings of 3rd International Conference on Advance Management Science, vol. 19, IACSIT Press: Singapore, 2011. [81] -enabled health care management: capabilities, infrastructure, and decisionApplications, vol. 24, 2003, pp. 59-71. [82] M. J. Allen, D. M. Kaufmann, A. Barret, G. Paterson, J. Sargeant, and R. -reported effects of computer workshops on physicians Professions, vol. 20, No.1, 2000, pp. 20-26. [83] R. Grol, M. C. Bosch, M. Hulscher, M. P. Eccles, and M. Wensing, 2007, pp. 93-138. g implementation: [84] J. Aarts, H. Doorewaard, and The case of a computerized physician order entry system in a large Informatics Association, vol. 11, No. 3, 2004, pp. 207-216. [85] L. Lapointe, and ans to accept new Association, vol. 174, No. 11, 2006, pp. 1573-1578. [86] S. Phansalker, C. R. Weir, A. H. Morris, and H. perceptions about use of computerized protoc International Journal of Medical Association, vol. 77, No. 3, 2008, pp. 184-193. [87] Harvard Business Review, vol. 75, No. 4, 1998, pp. 121-131. [88] D. L. Olson, and 1, 2007, pp. 129-138. [89] V. Reyes-Alcázar, A. Torres-Olivera, D. Núñes-García, and A. Almuedo-Paz, Critical Success Factors for Quality Assurance in Healthcare Organisations, in Quality Assurance Management, Prof. Mehmet Savsar (ed.), 2012. [90] H. K. Andreassen, M. M. Bujnowska-Fedak, C. E. Chronaki, R. C. Duritru, I. Pudele, S. Santana, H. Voss, and Public Health, vol. 7, N0, 53, 2007. [91] ACSS, Definição do Plano de Transformação dos Sistemas de Informação Integrado de Saúde (PTSIIS), sumário executivo, Price Waterhouse Coopers, 2007. [92] DGS-Direção Geral de Saúde, National Health Plan 2012-2016, Ministry of Health, 2013. Accessed on 12-12-2014 on http://pns.dgs.pt/nhp-in-english/. [93] R. M. Baron, and -mediator variable distinction in social psychological research: Conceptual, strategic and vol. 51, 1986, pp. 1173-1182. [94] A. J. Fairchild and D. P. Mackinnon, [95]

vol. 10, No. 2, 2009, pp. 87-99. -Project Management Government Commerce, 2010.

[96]

Self-Assessment.

Office

of

Newtown Square, Pa.: Project Management Institute, 2013. [97] A. Bryman, and E. Bell, Business Research Methods, New York, Oxford University Press Inc.; New York, 2003.

No. 2, 2006, pp. 125-137.

CISTI 2015 | 310

O papel da Cultura Organizacional na dinâmica de relacionamento entre as Tecnologias da Informação e a Aprendizagem Organizacional The role of organizational culture in the dynamic relationship between Information Technology and Organizational Learning Adriana L. Fernandes Departamento de Ciências e Tecnologias Instituto Universitário de Lisboa ISCTE-IUL Lisboa, Portugal [email protected]

Bráulio A. B. Alturas

Departamento de Ciências e Tecnologias Instituto Universitário de Lisboa ISCTE-IUL Lisboa, Portugal [email protected]

Resumo A Cultura Organizacional (CO) desempenha um papel crucial nos processos gerenciais que pode, direta ou indiretamente, influenciar o sucesso da implementação e do uso das tecnologias da informação (TI) e também facilitar a aprendizagem organizacional (AO). Embora o tema tenha sido amplamente discutido, até ao momento, não foi identificada investigação que analise o efeito conjunto da TI, AO e CO, especialmente a partir de uma perspectiva empírica. Assim, o objetivo da investigação é compreender o papel da CO na dinâmica de relacionamento entre TI e a AO, no segmento dos meios de hospedagem, no Brasil e em Portugal. Tendo como base a revisão da literatura, postula-se que é através do alinhamento entre a CO e a TI que será possível a alavancagem da AO, o que levará a um melhor desempenho. Neste contexto a investigação posiciona-se no paradigma positivista com cariz quantitativo. Para o efeito será utilizado um inquérito por questionário ao principal gestor de cada um dos estabelecimentos selecionados para a pesquisa, no intuito de compreender o tipo de cultura organizacional dominante nos estabelecimentos e como essa influencia a dinâmica de relacionamento entre as TI utilizadas e o processo de aprendizagem organizacional. Com o estudo pretende-se fornecer insights adicionais aos gestores sobre a sustentabilidade da vantagem competitiva resultante da sinergia entre TI, CO e AO e preencher a lacuna relacionada ao relacionamento desses constructos na literatura Palavras Chave tecnologias da informação; aprendizagem organizacional; cultura organizacional; turismo; hotelaria. Abstract The Organizational Culture plays a crucial role in the management processes that can, directly or indirectly, influence the success of Information Technology (IT) implementation and use and also facilitate the Organizational Learning (OL). Although the importance of these issues have been widely

Raul M. S. Laureano Departamento de Métodos Quantitativos para Gestão e Economia Instituto Universitário de Lisboa ISCTE-IUL Lisboa, Portugal [email protected]

discussed, there are no studies that investigate the combined effect of IT, OL and OC, particularly from an empirical perspective. Therefore, the objective of this project is to understand the role of Organizational Culture (OC) in the dynamic relationship between Information Technology (IT) and Organizational Learning (OL), in the accommodation segment, in Brazil and Portugal. Based on the literature review, it is postulated that it is through the alignment between the OC and IT will be possible to leverage the organizational learning, which will cause the better firm performance. In this context the research is positioned in the paradigm positivist with quantitative nature. For this purpose will be used a questionnaire to the main manager of each of the selected institutions for research in order to understand the type of dominant organizational culture in institutions and how this influences the dynamics relationship between IT used and the process of organizational learning. The intention is to provide additional insights to managers about the sustainability of competitive advantage resulting from the synergy between IT, OC and OL and fill the gap relating to the relationship of these constructs in the literature Keywords Information Technology; Oragnizational Learning; Organizational Culture.

I. SITUAÇÃO DA INVESTIGAÇÃO A pesquisadora encontra-se no início do segundo ano do Programa Doutoral em Ciências e Tecnologias da Informação do Instituto Universitário de Lisboa, com previsão para conclusão em janeiro de 2017. A área de interesse é a de Informática Aplicada à Gestão e às Ciências Sociais, na qual a pesquisadora pretende desenvolver competências específicas. O projeto encontra-se em fase de elaboração do estado da arte, definição das empresas participantes da pesquisa, e validação

CISTI 2015 | 311

do instrumento de coleta de dados. A partir de setembro pretende-se realizar o pré-teste e posterior refinamento do instrumento e coleta dos dados. No último ano tratar-se-á da análise e conclusão da pesquisa. Espera-se com a participação no Simpósio Doutoral partilhar e enriquecer, por meio de críticas construtivas, a investigação em desenvolvimento e atualizar conhecimentos. II. PROBLEMA E RELEVÂNCIA DO TEMA O presente estudo pretende compreender qual o papel da cultura organizacional na dinâmica de relacionamento entre a tecnologia da informação e a aprendizagem organizacional. O tema se torna relevante, primeiramente, por haver uma lacuna teórica relacionada com a dinâmica de relacionamento entre a cultura organizacional (CO), a tecnologia da informação (TI) e a aprendizagem organizacional (AO). Não foram encontrados estudos que investigassem o efeito dos constructos. Há evidências de que a AO está associada à TI, e que a CO tem influência direta sobre as duas variáveis, separadamente, mas não foram encontrados estudos centrados sobre o efeito da CO nessa relação. A proposta desta investigação é, essencialmente, preencher essa lacuna. Segundo, devido ao facto de que o estudo empírico será realizado em empresas do setor do turismo, de grande importância para a economia mundial. De acordo com o relatório elaborado pela Organização Mundial do Turismo UNWTO, em 2013 o turismo internacional superou as expectativas, com as chegadas aumentando cerca de 5% comparativamente a 2012 (em torno de 52 milhões adicionais), apesar dos desafios econômicos globais [22]. O setor mostra resiliência perante as mais variadas adversidades e as previsões do World Travel & Tourism Council - WTTC apontam para que o setor represente, em 2023, cerca de 10% do PIB mundial, 9.9% do emprego, 4.8% das exportações totais, e 4,9% do investimento.

E por fim, pretende-se realizar o estudo de forma comparativa, serão trabalhadas instituições brasileiras e portuguesas. A escolha por realizar um estudo comparativo entre instituições destes dois países justifica-se por apresentarem semelhanças nos aspectos cultural, social e econômico, embora respeitando suas peculiaridades e características. A proximidade luso-brasileira não se restringe a laços e raízes históricas nem a semelhanças culturais e a uma língua comum. Avança também para as relações econômicas, embora possuam diferente características, por exemplo, a presença do Brasil e Portugal em diferentes blocos econômicos, como o Mercado Comum do Sul (MERCOSUL) e a União Europeia, respectivamente. No entanto mesmo diante das relações econômicas e empresariais entre o Brasil e Portugal, há carência de estudos acadêmicos que busquem investigar e comparar os dois países [15]. III.OBJETIVOS Os objetivos que orientam a revisão da literatura e a escolha metodológica do projeto são: A. Objetivo Geral Compreender qual o papel da cultura organizacional na dinâmica de relacionamento entre a tecnologia da informação e a aprendizagem organizacional. B. Objetivos específicos Compreender se a CO é uma moderadora na relação TI e AO, compreendendo se ela afeta e com que intensidade afeta a dinâmica de relacionamento entre as variáveis. Verificar, dentre as CO identificadas nos meios de hospedagem, qual tipo de CO mais afeta a dinâmica de relacionamento entre TI e AO, tendo em vista o mercado que se está inserido e o público que se pretende atender.

Dentro deste setor, foi selecionado o segmento dos meios de hospedagem, onde a concorrência tem-se mostrado cada vez mais acirrada, uma vez que os clientes apresentam maior dificuldade de diferenciar tais organizações, sendo a capacidade dessas empresas gerar conhecimento e implementar inovações constantes um atributo fundamental [16]. Para isso, muitas dessas empresas aumentaram considerável os investimentos em TI, principalmente os relacionados ao comércio eletrônico, permitindo aumentar a participação, sobretudo de pequenos e médios empreendimentos, devido a facilidade de acesso, alinhada a transparência nas transações, que possibilitou dar mais confiança ao consumidor [20, 16].

Muito estudos trabalharam o fato de que a TI têm contribuído para criar uma vantagem competitiva e sustentar o desempenho organizacional [21, 7]. No entanto, evidências empíricas demostram que a TI não necessariamente é capaz de criar vantagem competitiva, ela é vista como uma commodity, e não há nenhuma conexão direta significativa entre a TI e o desempenho organizacional [21, 17, 3].

Adicionalmente, este segmento possui uma cultura organizacional única e específica, que foi pouco estuda na literatura. A diferença deste segmento para qualquer outro é o fato , que o funcionário entrega, ser intangível. Ou seja, a maneira como o o serviço é prestado será fundamental para a satisfação do cliente [6]. Entretanto a forma como o funcionário age vai depender dos valores, creças e pressupostos da CO. Tendo em vista os aspectos citados, os meios de hospedagem se tornam um campo de estudo bastante interessante para a pesquisa delineada.

Esse entendimento traz à tona a discussão do tema sob a égide da Visão Baseada em Recursos (VBR - do inglês Resource Based View - RBV), onde há o preceito de que as empresas competem com base em recursos que são distribuídos de forma heterogênea entre as firmas, concentrando-se em vantagens decorrentes de recursos organizacionais internos [2]. De acordo com a VBR, a TI por si só não pode gerar uma vantagem competitiva sustentável, ela pode melhorar a eficiência, entretanto a mesma tecnologia poderia ser adotado por empresas concorrentes [5].

Compreender se a presença da CO modifica os resultados obtido sobre o fato da AO mediar os efeitos da TI no desempenho organizacional [21] e [17]. IV.BREVE FUNDAMENTAÇÃO

CISTI 2015 | 312

No entanto, as vantagens geradas pela TI podem ser protegidas quando a mesma é incorporada em uma organização através da complementaridade, que existirá a partir do momento que o valor de um recurso é reforçado pela presença de outro recurso organizacional exclusivo, de forma que concorrentes não poderão se beneficiar da imitação, ficando impedidos de adotar a mesma estratégia (Powell e Dent-Micallef, 1997). Sendo assim a TI será capaz de desenvolver estoques de conhecimento sobre seus clientes, mercados e outros fatores que influenciam o desempenho organizacional. Estudos apontam a Aprendizagem Organizacional (AO) como um importante recurso na criação de vantagem competitiva sustentável, por ser capaz de alavancar o valor da TI por meio da complementaridade, ou seja, o efeito da TI nos resultados da empresa será mediado por certos elementos complementares, sendo a Aprendizagem Organizacional um desse elementos [21] e [17]. A aprendizagem organizacional definida como o processo pelo qual a empresa é capaz de gerar novos conhecimentos, que serão divulgados por toda empresa e incorporados em produtos e serviços [14], é considerada crítica para o sucesso da empresa, pois empresas que são capazes de renovar seus conhecimentos, resultado da aprendizagem organizacional, têm mais chances de compreender as consequências das mudanças em seus ambientes e são mais aptos do que os concorrentes para responder mais rápido e melhor [21, 19]. As tecnologias da informação neste estudo será trabalhada como Competência de TI [21], ou seja, o quanto uma empresa tem conhecimento sobre a TI e efetivamente a utiliza, o que irá englobar objetos, conhecimentos e operações. As TI são consideradas úteis na facilitação, exploração e desenvolvimento do processo de aprendizagem organizacional [9, 23]. Ela acelera a velocidade com que a informação é adquirida e disseminada por toda a empresa e ajuda a assegurar que cada membro da empresa está atualizado no que diz respeito a informações relevantes de mercado. Além disso, por meio da tecnologia da informação os membros da empresa podem, mais facilmente, compartilhar interpretações individuais da informação, tornando o desenvolvimento de consenso mais eficiente [21]. Dada a relação entre a AO e a TI, e suas consequências para o desempenho organizacional, uma série de estudos têm tentado identificar os determinantes do sucesso da aprendizagem organizacional [19] e da TI [3]. Uma das variáveis de alta influência sobre ambos é Cultura Organizacional (CO), que neste estudo é entendida como os valores, crenças e premissas ocultas que os membros da organização têm em comum [4] ou ainda aquilo que as pessoas partilham, como o cimento que as mantém unidas [4]. Uma série de estudos apontam que a cultura organizacional é um elemento-chave para o processo de aprendizagem organizacional uma vez que ela influencia fortemente o comportamento dos empregados por determinar os valores, crenças, pressupostos e sistemas de trabalho, podendo assim encorajar ou impedir a aprendizagem organizacional e a partilha do conhecimento gerado na aprendizagem [19, 11].

Além disso, a CO e a AO são mutuamente dependentes, a cultura organizacional pode ser vista como um repositório de conhecimento com capacidade de armazenamento e processamento de informações, enquanto aprendizagem organizacional desempenha um papel importante no sentido de garantir que o repositório de conhecimento seja continuamente renovado e atualizado para permitir respostas eficazes às mudanças no seu ambiente competitivo [11], ou seja, são conceitos indissociaveis. A CO afeta a AO quando: molda os pressupostos dos trabalhadores sobre se o conhecimento é importante ou não e que conhecimento vale a pena ser gerido; molda os processos pelos quais os novos conhecimentos são criados, legitimados e distribuídos; e quando cria o contexto para a interação social que acaba por determinar a eficácia com que uma organização pode criar, compartilhar e aplicar do conhecimento [12]. Tendo em vista essas questões conclui-se que diferentes culturas organizacionais terão diferentes influências sobre AO [19]. Em relação a influência da CO na TI, pode-se dizer que a compreensão da cultura, em todos os níveis (nacional, organizacional e de grupo), é importante para o estudo das Tecnologias de Informação, pois ela desempenha um papel nos processos gerenciais que pode, direta ou indiretamente, influenciar o sucesso da implementação e uso da TI [10]. Como exemplo dessa influência pode-se citar o número de iniciativas de adoção de Sistemas de Informação (SI) que falharam devido a um desajuste entre a CO e o SI introduzido [8]. Uma das ações centrais para maximizar a produtividade da TI seria estabelecer seu vínculo com os propósitos da empresa, reforçando o fato de que qualquer infraestrutura de TI, por mais moderna que seja, traz pouco diferencial competitivo por si só, deve estar alinhada aos objetivos estratégicos e as particularidades da cultura da empresa [18]. Embora a importância destas questões tenham sido amplamente discutidas até o momento, não foram encontrados estudos que investigassem o efeito combinado da TI, Aprendizagem Organizacional e Cultura Organizacional. Há evidências teóricas de que a aprendizagem organizacional está associada à TI, e que a CO tem influência direta sobre as duas variáveis, separadamente, mas não foram encontrados estudos centrados sobre o efeito da cultura organizacional nessa relação. A proposta dessa investigação é preencher essa lacuna. Sendo assim, pretende-se co da cultura organizacional na dinâmica de relacionamento entre a tecnologia da informação e a aprendizagem Pretende-se com esse estudo compreender como a cultura organizacional adotada pela empresa impacta a relação AO e TI, se ela é capaz de afetar a intensidade da relação AO e TI, ou seja, pretende-se analisar se a CO afeta a força e a forma como se dá o relacionamento entre TI e AO e por fim determinar que tipo de CO tem maior impacto sobre essa relação. Tendo em vista que a AO tem um efeito mediador entre a tecnologia da informação e desempenho organizacional [21, 17], o estudo também terá o objetivo de compreender se o

CISTI 2015 | 313

papel desenvolvido pela CO na relação TI e AO teria consequências para o desempenho organizacional. V. METODOLOGIA Será utilizada para desenvolver o presente estudo uma pesquisa de natureza descritivo-exploratória, pois visa efetuar a descrição de relacionamentos existentes na realidade do fenômeno estudado, além de explorar o assunto com a finalidade de alcançar uma melhor compreensão do tema [13]. Para tanto, será realizado um survey [1]. A construção do instrumento de coleta de dados será baseada em escalas elaboradas em estudos anteriores e adaptadas para o segmento dos meios de hospedagem. O questionário seguirá uma estrutura matricial de respostas, utilizando escalas do tipo Likert de sete pontos e será aplicado a gestores das unidades hoteleiras, em Portugal e no Brasil. Após a construção do instrumento de pesquisa, o mesmo será submetido a um Préteste para validação. Os resultados obtidos serão avaliados por meio equações estruturais.

[4] [5] [6]

[7]

7039(Arvanitis 2006): 1 19, 2013. [8] [9]

[10]

VI.RESULTADOS ESPERADOS O primeiro dos contributos esperados está relacionado a questões teóricas. Primeiramente ao desafio de desenvolver e validar uma metodologia, para avaliar a dinâmica de relacionamento entre TI, AO e CO. Segundo a pesquisa irá contribuir para a analisar empiricamente as relações entre as três variáveis citadas, com foco no contexto Brasileiro e Português, onde há uma carência de estudos sobre esta questão. E por último o fato de estudar essa relação em empresas de serviço, pois estudos anteriores focam-se em empresas de produtos.

[11]

[12] [13]

O segundo contributo está relacionado Visão Baseada em Recursos ao apoiar a perspectiva de que a vantagem competitiva de uma empresa e desempenho são uma função de recursos inimitáveis complexos que são incorporados dentro da organização [2].

[14]

E por fim contribuir para a prática organizacional. Entende-se que se uma organização deseja tirar melhor proveito das TI adotadas e criar vantagens competitivas sustentáveis, ela deve prestar atenção aos recursos exclusivos da organização, que por meio da complementaridade, podem aumentar o valor da TI, como é o caso da AO [21, 17]. Além disso, deve prestar atenção a CO, pois além de ter influência direta na TI e na AO, ela poderá melhorar a relação entre as variáveis, levando a um melhor desempenho organizacional. Para os gestores há ainda a possibilidade de utilizar o conhecimento aqui adquirido para focar os esforços em criar valores que vão de encontro ao tipo de CO mais adequada para estimular os processos de AO e a TI.

[16]

REFERÊNCIAS BIBLIOGRÁFICA [1] [2] [3]

Organizational Perf The Journal of Strategic Information Systems 20(4): 461 78, 2011. Cameron, Kim S., and Robert E. Quinn, Diagnosing and Changing Organizational Culture. Revised ed. San Francisco, CA: JosseyBass business & management series, 1999. Clemons, E.K., MiIS Quarterly 15(3): 275 92, 1991. Dawson, Mary, JeAnna Abbott, and Stowe Shoemaker, Hospitality Culture Scale: A Measure Organizational Culture and International Journal of Hospitality Management 30(2): 290 300, 2001. Dodgson, Mark, David M Gann, and Nelson Phillips,

[15]

Organization Science

Systems Adoption: A ThreeInformation and Organization 21(2): 57 83, 2011. Kane, Gerald C., and Maryam Alavi, Organizational Learning: An Investigation of Exploration and Organization Science 18(5): 796 812, 2007. Leidner, Dorothy E, and Timothy Kayworth, in Information Systems Research: Toward a Theory of Information 30(2): 357 99, 2006. Liao, Shu-Hsien, Wen-Jung Chang, Da-Chian Hu, and Yi-Lan Yueh, Acquisition, Organizational Learning, and Organizational I The International Journal of Human Resource Management 23(1): 52 70, 2012. De Long, D. W., and L. Fahey, Academy of Management Perspectives 14(4): 113 27, 2000. Malhotra, Naresh K, Pesquisa de Marketing: Uma Orientação Aplicada. 3 ed. Porto Alegre: Bookman, 2001. Nonaka I, Takeuchi H, The Knowledge Creating Com- pany: How Japanese Companies Create the Dynamics of Innovation. Oxford University Press: Nueva York., 1995. Oliveira, Daysa Andrade. Gestão de Competências - Articulaçao Possível? Um Estudo Comparativo Dos Serviços de Hotelaria Hospitalar Entre Brasil E - UFMG, 2014. Quevedo, Mariana,

Federal de Santa Catarina - UFSC, 2007. [17] Real, Juan C., Antonio Leal, and José L. Roldán, Technology as a Determinant of Organizational Learning and Industrial Marketing Management 35(4): 505 21, 2006. [18] Rostock, Fernando Luiz Pires. O impacto da tecnologia da informação na geração de recursos competitivos nas empresas: , 2011. [19] Sanz-Valle, Raquel, Julia C. Naranjo-Valencia, Daniel JiménezJiménez, and Laureano Perez-Caballero. g Organizational Journal of Knowledge Management: 997 1015, 2011. [20] Sigala, Marianna,

Babbie, Earl, Métodos de Pesquisa de Survey. Guilherme. ed. Ed. UFMG. Belo Horizonte, 1999.

International Journal of Operations & Production Management 23(10): 1224 45, 2003. [21] Tippins, Michael J., and Ravipreet S. Sohi,

Journal of Management 17(1): 99 120, 1991. Bulchand-Gidumal, Jacques, and Santiago Melián-González,

Strategic Management Journal 24(8): 745 61, 2003. [22] UNWTO. UNWTO Annual Report 2013. Madrid, 2014.

CISTI 2015 | 314

[23] Wang, By Ping, and Neil C Ramiller, MIS Quarterly 33(4): 709

CISTI 2015 | 315

34, 2009.

Animação e Avaliação Automática no Apoio ao Ensino da Programação Animation and Automatic Evaluation in Supporting the teaching of Programming Paula Correia Tavares, Elsa Ferreira Gomes

Pedro Rangel Henriques

Dep. Informática/GECAD, ISEP - IPP Porto, Portugal {pct,efg}@isep.ipp.pt

Dep. Informática/Centro Algoritmi, U. Minho Braga, Portugal [email protected]

A aprendizagem da programação é uma tarefa Resumo complexa que coloca desafios importantes. As dificuldades encontradas pelos alunos mostram uma vasta carência em diferentes níveis, as quais não são, muitas vezes, resolvidas eficazmente pelos métodos de ensino e aprendizagem clássicos. Por este motivo, vários autores dedicaram-se a estudar a eficácia pedagógica da animação e visualização de programas e ao desenvolvimento de algumas ferramentas. A animação pode ajudar os alunos a entender e a analisar programas, pode facilitar a análise de programas existentes e pode mesmo apoiar no desenvolvimento de novos programas. Uma das estratégias mais utilizadas no ensino é promover a resolução de exercícios práticos de programação pelos alunos. Receber feedback imediato é essencial para a aquisição de conhecimento. Novas ferramentas surgem (sobretudo na área dos concursos de programação) que permitem a submissão de programas desenvolvidos pelos alunos em resposta a problemas, retornando uma avaliação da sua resposta. Estas ferramentas podem ser incorporadas nas atividades letivas, permitindo ao aluno testar os seus trabalhos recebendo imediato feedback pelo que os sistemas de avaliação automática melhoram significativamente o desempenho dos alunos. Neste artigo apresentam-se estas duas abordagens e propõe-se uma nova prática pedagógica resultante da combinação de ambas. Palavras Chave - programação; aprendizagem; alunos; animação; avaliação automática. Abstract Learning programming is a complex task that poses significant challenges. Students face different kinds of difficulties at complex levels that traditional teaching/learning methods are nor able to cope with. For this reason, several authors have researched the pedagogical effectiveness of program visualization and animation, and developed some tools. Animation can help students on the analysis and understanding of given programs, and can also guide on the development of new ones. It is very important to give students the opportunity to practice solving programming exercises by themselves. Receiving feedback is essential for knowledge acquisition. New tools arose (especially in the area of programming contests) to allow for the submission of solutions (programs developed by the students) to the problem statements presented by the teacher and to assess them, returning immediately information about the submitted answer. These tools can be incorporated into teaching activities,

allowing students to test their work getting immediate feedback. Automatic evaluation systems significantly improve students performance. In this article are shown these two approaches, animation and automatic assessment, and proposed a new pedagogical practice resulting from the combination of both. Keywords - programming; learning; students; animation; automatic evaluation.

I.

INTRODUÇÃO

Aprender a programar pode revelar-se uma tarefa bastante difícil para os alunos, resultando numa elevada taxa de reprovações, conforme foi amplamente estudado na tese de Anabela Gomes [1] onde se identificam causas para o problema e enumeram soluções. Muitos alunos confundem aprender a programar com aprender a sintaxe de uma qualquer linguagem de programação. Nada mais errado. Programar é, antes de mais, delinear estratégias que permitam resolver problemas, independentemente da linguagem utilizada. Na verdade, esta tarefa abrange várias etapas que vão da análise do enunciado ao teste do programa, passando pelo desenvolvimento do algoritmo e sua codificação. Embora a codificação não seja o centro das preocupações e das dificuldades, deve registar-se aqui que já tem sido estudado e afirmado [1] que o paradigma de programação adotado e a linguagem usada tem grande impacto, quer no processo de aprendizagem, quer no desempenho dessa tarefa. Esta aprendizagem é considerada um processo iterativo. Ou seja, programar aprende-se através da construção de nova informação sobre informação mais básica. O aluno só pode aprender a programar, programando, pois, só desta forma poderá perceber e adquirir estratégias de resolução de problemas. Logo, depreende-se que um comportamento ativo por parte do aluno, ao invés dum comportamento passivo, leva a uma melhoria da sua capacidade para resolução dos problemas propostos. Porém, os professores verificam que, na maioria das vezes, os alunos, perante um problema concreto, não conseguem

CISTI 2015 | 316

iniciar a sua resolução, nem no papel, nem no computador. Mesmo ultrapassando essa inércia inicial, frequentemente desanimam e desistem à primeira dificuldade que lhes surge. Assim tem-se vindo a verificar que as dificuldades dos alunos prendem-se com: interpretação do problema, por desconhecimento do seu domínio ou por não conseguirem compreender o enunciado, ausência de um raciocínio lógico, o que lhes dificulta a análise estruturada e a aplicação sistemática de noções básicas para que o algoritmo resolva problemas concretos e por último dificuldade na aprendizagem da sintaxe da linguagem e da respetiva semântica. Estas dificuldades na aprendizagem da programação levaram à criação de linguagens e ambientes de trabalho que facilitam a conceção de algoritmos, ou a escrita e a análise de programas. Entre outras, as ferramentas de animação proporcionam uma metáfora visual que pode facilitar muito a compreensão de conceitos complicados. Assim, ajudam o aluno a descobrir a dinâmica de processos importantes mas difíceis de serem compreendidos. Desta forma, incentivam o aluno a progredir na sua atividade [2]. Como resultado do aprofundado estudo elaborado até ao momento, além desta estratégia, o recurso a sistemas de animação, discute-se neste artigo a relevância do feedback no processo ensino-aprendizagem. Nesse contexto, revê-se o impacto que as ferramentas de avaliação automática de programas podem ter, quando integradas no ensino. Após resumir o estado-da-arte em ambas essas áreas (secções 2 e 3), apresenta-se sucintamente (secção 4) a proposta de desenvolvimento deste trabalho de doutoramento (iniciado há cerca de 12 meses, no âmbito do Programa Doutoral em Informática, PDInf, no Departamento de Informática da Universidade do Minho) na área da utilização de ferramentas computacionais para o ensino da programação. II.

ANIMAÇÃO

O uso de interfaces gráficas que permitam estabelecer entre o utilizador e o computador uma comunicação não limitada à forma textual tem sido uma preocupação referida por vários autores [3] [4] [5]. Observa-se um crescente interesse e dedicação, por parte de educadores e informáticos, na construção de sistemas e de programas computacionais com o intuito de melhorar a aprendizagem, com base na animação, visualização e simulação. A grande motivação é apelar ao potencial do sistema visual humano.

A animação é uma forma natural de expressar comportamentos. Mais concretamente, a animação de um algoritmo é um tipo de visualização dinâmica das principais abstrações expressas pelo mesmo. Assim a sua importância reside na habilidade de retratar a essência da lógica do algoritmo. Quando se pensa em inspecionar o fluxo de controlo e o comportamento de variáveis de um programa, temos, logo à partida, duas grandes escolhas: fazê-lo durante a execução do código (debugging), ou simular a execução num outro ambiente [9]. Para fins didáticos julgamos que a segunda situação é claramente a mais interessante. Assim entende-se por sistema de animação uma ferramenta que permite construir animações de forma mais ou menos interativa. Neste contexto, existem várias ferramentas que tentam introduzir conceitos básicos de programação através de um ambiente familiar e agradável com o intuito de auxiliar os alunos a aprender a programar. A seguir, listam-se algumas dessas ferramentas mais conhecidas: BALSA[10], TANGO[11], Jeliot[12], Alma[13], SICAS[14], OOP-Anim[15][16], VILLE[17], JIVE[18], etc. Todas estas ferramentas estão relacionadas com a visualização ou animação de programas desenvolvidos em linguagens de programação tradicionais (C, Java, etc). Além destes existem também alguns ambientes de programação menos convencionais que permitem editar, executar e visualizar os programas em linguagens concebidas com o propósito de facilitar o ensino da programação: AMBAP[19], Alice2 (ver em http://www.alice.org/), Scratch (ver em http://scratch.mit.edu), etc. Como referenciado, vários autores interessaram-se por este problema desenvolvendo ambientes menos complexos e apelativos que os ambientes profissionais, com funcionalidades importantes para programadores pouco experientes. Estes sistemas têm sido muito utilizados para permitir a compreensão de aspetos importantes na programação através da animação de pseudo-código, de fluxogramas, ou programas escritos em linguagens de programação específicas ou genéricas como por exemplo Pascal, C, Java, entre outros. Os mais interessantes e apelativos são os que permitem que os alunos introduzam e simulem os seus próprios algoritmos e programas. A animação baseada em simulação permite apresentar a visualização dinâmica do programa e auxilia a compreensão do aluno ao seu próprio ritmo. Para concretizar esta ideia, mostra-se na Figura 1 e Figura 2 imagens do sistema Jeliot o qual nos pareceu bem ilustrativo do assunto exposto.

A questão fundamental é como aplicar estes artefactos com a finalidade de ajudar os alunos a lidar com conceitos complexos. Muitos estudos [6][7][8] têm sido realizados para identificar as regras que se devem levar em conta e ao mesmo tempo projetar e criar visualizações e animações de algoritmos eficazes para o ensino. Assim, uma vez que os programas computacionais podem ser pouco claros quando apresentados num formato textual, é esperado que o formato gráfico animado contribua para uma melhor compreensão [9]. Figura 1. Interface do Jeliot

CISTI 2015 | 317

Classe Java para cálculo de uma média.

Figura 2. Interface do Jeliot- Classe Java para cálculo de uma média.

As figuras acima, mostram dois momentos da animação de uma classe para o cálculo de uma média. Na primeira é visualizado o instante em que uma nota está a ser adicionada ao somatório; na segunda imagem vê-se a fase em que a condição da paragem do ciclo está a ser testada. A sequência destas imagens correspondentes a cada tipo de instrução a ser executada produz a animação da classe como desejado. III.

AVALIAÇÃO AUTOMÁTICA

É muito importante dar aos alunos a oportunidade de praticar e de resolver exercícios de programação por si mesmos. Porém a eficácia máxima desta aproximação exige a capacidade do docente para avaliar e comentar cada resolução. Contudo, em turmas grandes e com poucas horas esta atitude é impraticável. Diferentes estudos, como se comprova em [20], mostram que sistemas de avaliação automática melhoram significativamente o desempenho dos alunos. O feedback imediato é muito importante para a aquisição de conhecimento, independentemente da estratégia de aprendizagem particular, e motiva os alunos. Contudo, o feedback individual pode consumir demasiado tempo dos professores correndo o risco de não chegar aos alunos em tempo útil o que dificulta a importância da estratégia. Para colmatar este problema, existem um número importante de sistemas de submissão on-line que suportam a avaliação automática para os problemas de programação. Como resultado, os alunos podem praticar e melhorar suas competências de programação de forma independente [20].

Novas ferramentas surgiram para satisfazer os pedidos do avaliador e além de facilitar e permitir a sua utilização em atividades letivas, permitem ao aluno incorporar testes nos seus trabalhos. O uso destas ferramentas aumenta o nível de satisfação e motivação dos alunos. Segundo professores e alunos deve-se proporcionar um feedback o mais rápido e o mais detalhado possível. Estas ferramentas não substituem o papel do professor, mas ajudam e valorizam o tempo na sala de aula. Os problemas propostos têm diferentes níveis de dificuldade, sendo útil para um aumento da compreensão da programação por parte dos alunos. Os professores devem poder então selecionar os problemas que pretendem apresentar aos estudantes de acordo com seu nível de dificuldade [20]. Com as ferramentas de software apropriadas a correção do programa pode ser determinada, juntamente com uma indicação da qualidade de acordo com um conjunto de métricas. Não é fácil encontrar uma abordagem única para o problema da avaliação dos trabalhos de programação. Diferentes professores podem adotar diferentes estratégias, dependendo dos seus objetivos específicos e objetivos do curso, e principalmente do seu próprio estilo e preferências [21]. Então, o problema diz respeito aos recursos necessários para gerir a avaliação dos exercícios práticos, de modo a que os alunos recebam feedback preciso e no momento certo para que a sua aprendizagem possa ser beneficiada. A maioria das ferramentas disponíveis para o efeito inclui a entrega de trabalhos e avaliação automática. Isto é apropriado para uma aprendizagem inicial onde o conhecimento e a compreensão estão a ser testados. O objetivo final é fornecer novas estratégias de aprendizagem para motivar os alunos e tornar a programação um desafio mais acessível e atraente. Como exemplos de Ferramentas deste tipo, podem citar-se o Boss[22], o Mooshak [23] e o EduJudge [20], em que o seu principal objetivo, além de testar as respostas dos alunos face a um conjunto de dados de entrada e dar uma classificação, é permitir ao avaliador motivar os alunos através de um feedback preciso e rápido.

Na verdade, uma vez que nem todos os alunos são motivados da mesma forma, é importante disponibilizar diferentes ambientes de aprendizagem: individual (tradicional), colaborativo (trabalhos em grupo), competitivo (concursos), etc. Despertando o sentimento de competição intrínseco a cada um de nós, a aprendizagem competitiva surte efeito porque aumenta o empenho e leva a um maior envolvimento dos alunos, nas atividades práticas. Assim os concursos com avaliação automática estão, cada vez mais, a tornarem-se atividades importantes para a prática da programação. No entanto, as diferenças de motivação e de sentimentos entre vencidos e vencedores podem existir e ter efeito negativo, podendo ser atenuadas através de diferentes práticas, tal como focar a atividade essencialmente na aprendizagem e diversão e não tanto na competição.

Figura 3. Interface do Sistema Mooshak.

A título de exemplo mostra-se na Mooshak que ilustra a simplicidade interface. Além do enunciado do apresentado na janela central, vêm-se janela superior

CISTI 2015 | 318

Figura 3 um ecrã do e naturalidade da sua problema a resolver, as diferentes opções na

IV.

PROPOSTA

O nosso objetivo é fazer com que os alunos aumentem a sua capacidade de praticar com regularidade a programação, desde o primeiro dia, pois acreditamos que desta forma o seu sucesso escolar vai aumentar. Face aos recursos informáticos atualmente disponíveis e com vista a agilizar o processo de ensino aprendizagem da programação, sugerimos que, por cada tema a ensinar, o professor prepare dois conjuntos de exercícios análogos. Para os exercícios do primeiro conjunto o professor discute o enunciado, esquematiza a resolução (esboça um algoritmo) e apresenta o programa que o resolve de modo a que o aluno possa fazer a sua animação e assim analisar/compreender a solução. Para os exercícios do segundo conjunto, após discutir o enunciado, o professor pede que os alunos o resolvam e testem a solução criada através de um sistema de avaliação automática. Num terceiro momento, o professor discute com os alunos o feedback recebido do avaliador. Esta abordagem pressupõe que o professor selecione uma ferramenta de animação eficaz e fácil de usar, bem como escolha um avaliador automático que além de amigável retorne um feedback que forneça um diagnóstico e, se possível, comente a qualidade do código. Presentemente pensamos fazer experiências com o Jeliot e o Mooshak. Para efeitos de avaliação da proposta, o projeto de investigação em curso pressupõe a aplicação desta abordagem a uma turma piloto de modo que os resultados possam ir sendo comparados com uma outra turma com abordagem tradicional. V.

CONCLUSÃO

Com o objetivo de aumentar a motivação e a autoconfiança dos alunos dos cursos de Introdução à Programação, apresentou-se neste artigo uma proposta de tese de doutoramento que visa identificar claramente as dificuldades especificas que efetivamente se levantam neste processo de aprendizagem e sugerir diferentes abordagens, suportadas em recursos informáticos, para minimizar estas dificuldades. Devido à especificidade do problema, cabe ao informático, quando docente, perceber as fragilidades dos alunos neste processo de aprendizagem e cumpre também a ele resolve-las no terreno, ou seja em contexto de ensino da programação. Devendo para isso adotar e estanciar estratégias de ensino eficazes. Para alcançar este objetivo seguiremos o método baseado na investigação bibliográfica (teórica e tecnológica), na reflexão e avanço de soluções e na sua experimentação em sala de aula. REFERÊNCIAS BIBLIOGRÁFICA [1]

A.

Gomes.

Difficulties

of

learning

computer

programming.

aprendizagem de programação de computadores: contributos para a sua à Universidade de [2] [3]

2010. C. Hundhausen, S. Douglas, and J. -Study of Algorithm In Journal of VisualLanguages and Computing 13, pp. 259-290, 2002. S. Hansen, N. Narayanan and D. Visualize and Comprehend Algorithms. Proceedings of the World

[4] [5]

[6] [7] [8] [9]

Conference on Educational Multimedia, Hypermedia & Telecommunications (ED-MEDIA'99), 1999. J. Stasko, and C. Kehoe. Using Animations to Learn about Algorithms: An Ethnographic Case Study . Technical Report GIT-GVU-96-20, September 1996. C. Hundhausen, and S. Algorithms: Should Students Construct Their Own, or View an 000 IEEE International Symposium on Visual Languages IEEE Computer Society Press, Los Alamitos, 2000. Marc. Brown, and R. -39 ,1985. A. ssertation for the degree of Doctor of Science in Technology. At Helsinki University of Technology (Espoo, Finland), November, 2003. A. Kerren, and J. Stasko. In 2269, pp. 1-15, 2002. M.

Minho para obtenção do grau de doutor em Informática, ramo Tecnologia da Programação, Dezembro 2002. [10] P. submitted to the Faculty of the Virginia Polytechnic Institute and State University for the degree of M.Sc. In Computer Science, July, 2002. [11] C. Hughes, and J. Concurrent Systems: AComprehensionWorkshop of the Psychology of Programming Interest Group. Carlow, Ireland, April 2004. In E. Dunican & T.R.G. Green (Eds). Proc. PPIG 16. pp. 193-205, 2004. [12] M. Silva, R. D'Emery, J. Neto, and Y. structures: A Ex (JEPEX) da UFRPE, 2009. [13] M. Pereira, P.

In 1º Workshop Computação Gráfica, Multimédia e Ensino. Leiria, 1999. [14] A. Gomes, A. Me Evaluation and evolution of Evolução de um Ambiente de Suporte à Aprendizagem da Progra VII Congresso Iberoamericano de Informática Educativa, 2004. [15] Á. Santos, A. Gomes, and A. Algorithms Vol 3, pp.183-196., 2010 -Anim, a system to support learning [16] M. Esteves, and A. Mendes, of basic Conference on Computer Systems and Technologies . [17] T. Rajala, M. Jussi, L. Erkki, and K. A LanguageIndependent Progr Conference on Computing Education Research (Koli Calling 2007), Koli National Park, Finland, November 15-18, 2007. [18] D. Lessa, J. Czyz, and JIVE: A Pedagogic Tool for Visualizing the Execution of Java USA,SIGCSE 2011. [19] G. Xavier, D. Garcia, G. Silva, and A. http://www.uefs.br/erbase2004/documentos/weibase, 2004 [20] E. Verdú, L. Regueras, M. Verdú, J. Leal, J. Castro, and R. Queirós. A distributed system for learning programming on-l Education 58, pp. 1 10, 2011. [21] M. Joy, N. Griffiths, and R. n Computing, Volume 5 Issue 3, September 2005. [22] P. Heng, M. Joy, R. Boyatt, and N. Online Submission and Assessment System 2005. [23] J. Leal, and F. 2008.

CISTI 2015 | 319

Modelos de Maturidade na Gestão de Sistemas de Informação Hospitalares Investigação Inicial

Maturity Models in the Hospital Information Systems Management Initial Research João Vidal Carvalho

Álvaro Rocha

Universidade Santiago de Compostela Santiago de Compostela, Espanha [email protected]

Universidade de Coimbra, Faculdade de Ciências e Tecnologia, Departamento de Engenharia Informática Coimbra, Portugal [email protected]

Os modelos de maturidade são instrumentos Resumo facilitadores da gestão das organizações, incluindo a gestão da sua função sistemas de informação, não sendo exceção as organizações hospitalares. Neste artigo apresenta-se uma investigação inicial que visa o desenvolvimento de um abrangente modelo de maturidade para a gestão dos sistemas de informação hospitalares. O desenvolvimento deste modelo justifica-se porque os modelos de maturidade atuais no domínio da gestão dos sistemas informação hospitalares ainda se encontram numa fase embrionária de desenvolvimento, sobretudo porque são pouco detalhados, não disponibilizam ferramentas para determinação da maturidade e não apresentam as características dos estágios de maturidade estruturadas por diferentes fatores de influência. Palavras Chave - Estágios de Crescimento, Modelos de Maturidade, Sistemas de Informação Hospitalares, Gestão. Abstract In the present paper we put forth a preliminary research aimed at the development of an encompassing maturity model for the management of hospital information systems. The development of this model is justified to the extent that current maturity models in the field of hospital information systems management are still in an early development stage, and especially because they are poorly detailed, do not provide tools to determine the maturity stage nor structure the characteristics of maturity stages according to different influencing factors. Keywords - Stages of Growth, Maturity Models, Hospital Information Systems, Strategy, Management.

I.

INTRODUÇÃO

As instituições de saúde em conjunto com organizações governamentais começam a perceber que as razões associadas a uma certa incapacidade de gerir adequadamente os processos de saúde estão diretamente relacionadas com as limitações das infraestruturas tecnológicas e com a ineficiência da gestão das mesmas [1] [2]. Os gestores de SIH normalmente olham para os erros cometidos nestas organizações e interrogam-se sobre o que deviam ter feito para os evitar. Constata-se que esses erros

são, normalmente, sintomas naturais do crescimento e amadurecimento das organizações, e são muitas vezes resultado do desenvolvimento que trouxe a organização para a sua maturidade atual [3]. Este fenómeno de mudanças que uma organização experimenta, desde o seu começo até à sua maturidade, enquadra-se perfeitamente nos princípios da teoria de estágios de crescimento e no contexto atual associado aos Sistemas de Informação (SI) das organizações da área da saúde. Com base neste pressuposto que realça a importância dos Modelos de Maturidade na área dos SIH, este trabalho de investigação pretende desenvolver um modelo de maturidade especialmente adaptado às necessidades da Gestão dos Sistemas de Informação Hospitalares. Para desenvolver este novo modelo, foi realizado inicialmente um estudo preliminar sobre os Modelos de Maturidade de SI, bem como dos Modelos de Maturidade dos SIH e respetivas especificidades. Baseado nesta revisão preliminar do Estado da Arte destes dois grupos de modelos de maturidade, é apontada uma metodologia de investigação para propor e validar o novo modelo de maturidade. II.

ESTADO DA ARTE: REVISÃO PRELIMINAR

A. Evolução dos Modelos de Maturidade na Gestão dos SI Richard Nolan é considerado o principal mentor da abordagem à maturidade dos SI. De facto, depois de fazer um estudo/pesquisa à utilização dos SI nas principais organizações dos Estados Unidos, Nolan propôs um modelo de maturidade inicialmente contendo 4 etapas [4]. Mais tarde, e numa perspetiva de melhorar a primeira proposta, Nolan adicionou duas novas etapas ao modelo inicial [5]. Nesta segunda versão, o modelo de Nolan sugere que as organizações começam lentamente na fase de Iniciação, a que se segue um período de rápida propagação do uso das TI na fase de Contágio. Posteriormente, a necessidade para o Controlo emerge e esta fase, é seguida pela Integração de diferentes soluções

CISTI 2015 | 320

tecnológicas. A Gestão de Dados permite o desenvolvimento sem aumentar os custos associados aos Sistemas e Tecnologias de Informação (STI) e finalmente, o crescimento constante proporciona o alcance da Maturidade. Embora esta abordagem aos modelos de maturidade de Nolan, tenha sido reconhecidamente como altamente inovadora, ela gerou também muita discussão e controvérsia na comunidade científica. Diversos investigadores, apresentaram estudos que, por um lado, validaram o modelo de Nolan e por outro, proporcionaram extensões ao referido modelo. Com efeito, decorrente da investigação nesta área, outros investigadores apresentaram novos modelos (e.g.: [6], [7], [8], [9], [10]). Destes novos modelos apresentados depois da abordagem inicial de Nolan, o mais consensual, detalhado e compreensivo é o Modelo Revisto de Galliers e Sutherland [11] [3]. Este modelo proporciona uma melhor visão de como uma organização planeia, desenvolve, utiliza e organiza um SI e apresenta sugestões para a progressão em direção a estágios de maturidade superior. Este modelo consiste em seis estágios de maturidade e assume que uma organização pode encontrar-se em diferentes estágios de maturidade num dado momento e pode ser condicionada por diferentes fatores de influência. Além disso, apresenta características de estágios alinhados com as modernas organizações em rede e disponibiliza uma ferramenta de recolha de dados para avaliar a maturidade [11]. Mais recentemente, depois do modelo de Galliers e Sutherland [10], foram propostos outros modelos (e.g.: [12], [13], [14], [15]), incluindo um novo modelo de Nolan com nove estágios de maturidade [16], que foi desenvolvido para ir ao encontro das evoluções tecnológicas que ocorreram na área dos STI e na sua Gestão. Relativamente à área da Gestão de SI, um outro bom exemplo de Modelo de Maturidade é o modelo de Khandelwal & Ferguson [15] que apresenta nove estágios de maturidade, e que combina a teoria de estágios com os Fatores Críticos de Sucesso. Não obstante, o modelo de Galliers & Sutherland [10] continuou a ser considerado o mais completo e atual na gestão dos STI [3]. Acresce que, estes modelos de maturidade continuam a ser utilizados e aplicados a diversos tipos de organizações e a diferentes áreas das mesmas. Mutafelija & Stromberg [17] referem que o conceito de maturidade tem sido aplicado a mais de 150 áreas dos STI. De facto, existem vários exemplos de modelos de maturidade focados em diferentes áreas da organização e dos STI, nomeadamente, o modelo de maturidade para a implementação de Intranets de Damsgaard & Scheepers [18]; o modelo de maturidade para sistemas ERP de Holland & Light [19]; e o modelo de maturidade CMMI para o processo de desenvolvimento de software [20]. Podemos ainda acrescentar modelos de maturidade nas áreas da Manutenção do Software [21], Gestão do Negócio [22], Gestão de Projetos ([23], [24]), Gestão de Projetos em Portefólios e Programas [25], Gestão de Informação [26], Gestão dos SI/TIC [27], e-Business ([9], [28], [29], [30]), eLearning [31], Gestão do Conhecimento ([32], [33]), BPM Business Process Management [34], Arquitetura de Empresas ([35], [36]), etc.

B. Modelos de Maturidade na Gestão dos SIH Também nas organizações da área da saúde e concretamente na gestão dos SI Hospitalares, os modelos de maturidade têm sido cada vez mais utilizados. Esta utilização decorre da crescente realização de cuidados de saúde com base em sistemas eletrónicos sustentados pelo aumento da capacidade de computadores, e pela crescente capacidade de capturar e publicar conhecimento em formato digital. É consensual que os SI oferecem oportunidades significativas para os prestadores de cuidados de saúde e para o fornecimento de serviços de saúde, bem como formas de acesso à informação que os consumidores precisam [3]. Neste contexto, apareceram alguns modelos de maturidade, nomeadamente o Quintegra Maturity Model for electronic Healthcare [2], que se apresenta como um modelo que ultrapassa os limites de uma organização, pois incorpora todos os serviços associados ao processo médico aplicado a cada fornecedor da saúde e para cada nível de maturidade. Outro exemplo de modelo de maturidade na área da saúde, é o HIMSS Maturity Model for Electronic Medical Record, vocacionado para a identificação de diferentes estágios de maturidade na área do Electronic Medical Record (EMR) nos hospitais [37]. Também a IDC (Health Industry Insights) desenvolveu um modelo de maturidade que descreve os cinco estágios de desenvolvimento dos SI nos hospitais. Este modelo de maturidade tem sido utilizado em todo o mundo pela IDC, quer seja para avaliar a maturidade dos SI dos hospitais, quer seja para comparar as diferenças de maturidade média entre regiões e países de diferentes continentes [38]. A estes modelos de maturidade poderemos acrescentar o Maturity Model for Electronic Patient Record vocacionado para o sistema que gere todas as informações do paciente, ou seja, sistema que faz a gestão do EPR (Electronic Patient Record) [39] e o modelo de maturidade para PACS de Wetering & Batenburg [40]. Também os serviços nacionais de saúde de diversos países já começaram a desenvolver e adotar Modelos de Maturidade para a área da saúde. É o caso do modelo criado pela National E-health Transition Authority of Australia [41] denominado Interoperability Maturity Model (IMM). Este modelo é vocacionado para a interoperabilidade associada às capacidades técnicas, informacionais e organizacionais dos diferentes players envolvidos nos serviços de saúde. Um outro exemplo, diz respeito ao Modelo de Maturidade NHS Infrastructure Maturity Model (NIMM) [42]. Trata-se de um modelo de avaliação de maturidade que auxilia as organizações do Serviço Nacional de Saúde Inglês a realizar uma autoavaliação objetiva das suas infraestruturas tecnológicas. III.

DEFINIÇÃO DO PROBLEMA

As instituições de saúde em conjunto com organizações governamentais começam a perceber que as razões associadas a uma certa incapacidade de gerir adequadamente os processos de saúde estão diretamente relacionadas com as limitações das infraestruturas tecnológicas e com a ineficiência da gestão das mesmas ([43], [2]). Uma análise ao contexto atual da saúde,

CISTI 2015 | 321

mostra claramente a dimensão e importância do problema da transição tecnológica [2]. Além disso, as tecnologias de informação operacionais têm crescido em complexidade para responder às exigências deste sector de atividade. Este aumento da complexidade, por sua vez, levou à introdução de muitos e novos sistemas, processos e abordagens de integração empresarial, bem como ao aparecimento de novas empresas que oferecem serviços nesta área. Como resultado, muitos produtos e serviços imaturos estão a ser consumidos por SIH que se encontram em estado de mudança e que exigem como nunca, um desempenho e uma efetividade que respondam às suas necessidades. Com base neste cenário, surgem várias questões que necessitam de uma resposta convincente: Como saber se estamos a fazer um bom trabalho na gestão destas mudanças e na monitorização do progresso numa base contínua? Como gerir as interações de sistemas e processos que estão em constante evolução? Como gerir o impacto dos processos de baixa interoperabilidade, segurança, confiabilidade, eficiência e eficácia? Constatamos que, os benefícios da tecnologia moderna na área da saúde, suportados por melhores métodos e melhores ferramentas, não podem ser obtidos através de processos indisciplinados e caóticos ([44], [45]). Por esta razão, consideramos que a gestão dos SI nas organizações de saúde deve ser executada com base em modelos de maturidade. Vários modelos de maturidade têm sido propostos ao longo do tempo, quer para a evolução das pessoas, quer para a evolução geral das organizações quer ainda para a evolução particular da função da Gestão dos SI. Estes modelos diferem sobretudo no número de estágios, variáveis de evolução e áreas de foco ([46], [3]). Cada um destes modelos identifica certas características que tipificam o alvo em diferentes estágios de crescimento ou maturidade e são aplicados em diferentes organizações. No caso das organizações da área da saúde, também são propostos vários modelos de maturidade. Não obstante estes modelos já apresentem especificidades próprias que os distinguem dos modelos de outras áreas, os mesmos ainda se encontram numa fase embrionária de desenvolvimento ([46], [3]). Na pesquisa efetuada, verificouse que os modelos da área da saúde são pouco detalhados, não fornecem ferramentas para determinação da maturidade e não têm as características dos estágios de maturidade estruturadas por fatores de influência. Esta realidade apresenta uma oportunidade para desenvolver novos modelos de maturidade com foco na gestão de STI na área da saúde, que consigam preencher as lacunas identificadas anteriormente. Dentro do universo dos modelos de maturidade conhecidos, acreditamos que o modelo revisto de estágios de maturidade de Galliers & Sutherland [10] poderia servir de inspiração e referência, tanto para definir fatores de influência como para desenvolver um instrumento para avaliar a maturidade de um SI Hospitalar. Acresce que, o próprio conceito de Modelo de Maturidade ainda não está isento de críticas. Por exemplo, Pfeffer & Sutton [47] argumentam que o propósito dos modelos de maturidade é identificar uma lacuna que pode ser fechada por

ações subsequentes de melhoria. No entanto, muitos desses modelos não descrevem como executar eficazmente essas ações, pois essa demonstração de como fechar essas lacunas pode ser muito difícil de fazer. O ponto mais importante da crítica sobre modelos de maturidade é no entanto, a sua pobre base teórica [48]. A maior parte dos modelos baseia-se nas "boas práticas" ou nos "fatores projetos das organizações que têm demonstrado resultados favoráveis. Assim, embora essas práticas sejam compatíveis com o modelo de maturidade, não existe garantia que uma organização alcance o sucesso. Não há consenso sobre o [49]). De acordo com [50] as razões para estes resultados, por vezes, ambíguos dos modelos de maturidade decorrem da insuficiente aposta nos testes dos modelos em termos de validade, confiabilidade e generalização, bem como na pouca documentação sobre a forma de desenvolver e projetar um modelo desse tipo. Por esta razão, será fundamental descrever o trabalho de desenvolvimento de um modelo de maturidade com base numa abordagem sustentada pelos princípios da DSR (Design Science Research). IV.

QUESTÕES E OBJECTIVOS DA INVESTIGAÇÃO

Face à descrição do problema é formulada a seguinte questão de investigação: Qual o melhor modelo e respetivos estágios de maturidade que deverão ser aplicados na Gestão dos SIH? subQuais os fatores de influência associados aos estágios de maturidade que são considerados fundamentais pelos stakeholders na área da saúde? De que forma esses fatores poderão ser determinados, quantificados e integrados no contexto dos estágios de maturidade dos SIH? Para dar resposta a estas questões são definidos como objetivos: Através de uma revisão sistemática de literatura, identificar os principais modelos de maturidade adotados na Gestão de SI e as características dos seus diferentes estágios; Através de uma revisão sistemática de literatura, identificar os principais modelos de maturidade adotados na Gestão de SI Hospitalares e as características dos seus diferentes estágios; Identificar e caracterizar um conjunto de fatores de influência que possam ser utilizados em diferentes estágios de maturidade dos SIH; Propor um modelo conceptual que permita enquadrar, classificar e descrever os fatores de influência dos estágios de maturidade do SIH através da aplicação do Método Delphi; Validar o modelo conceptual e a metodologia proposta através da adoção de técnicas estatísticas aplicadas aos resultados obtidos no Método Delphi.

CISTI 2015 | 322

Desenvolver uma ferramenta automática que permita identificar o estágio de maturidade em que se encontra um determinado SIH e identificar os fatores de influência que devem ser melhorados para aceder a um estágio de maturidade superior. V.

ABORDAGEM METODOLÓGICA

No contexto de um projeto de doutoramento ou qualquer outro tipo de investigação, a definição da abordagem metodológica é fundamental para o investigador, na medida em que esta permitirá enquadrar as atividades que este irá desenvolver, definir a forma como os trabalhos irão decorrer e explicitar o modo como os resultados irão ser medidos e avaliados tendo como finalidade a validação da sua investigação. Um projeto de investigação é um processo de recolha, análise e interpretação de dados, a fim de compreender um determinado fenómeno. Esse processo deverá ser um processo sistemático que, dentro de um enquadramento e orientações estabelecidos, envolve a definição de objetivos, a gestão de dados e a comunicação das conclusões [51]. Tendo em conta a questão de investigação e os objetivos estabelecidos neste projeto de investigação, será adotada uma abordagem com a inclusão dos seguintes métodos: Revisão Sistemática de Literatura; e Método Delphi. A. Revisão de Literatura O ponto de partida para a continuação deste trabalho de investigação será a realização de uma revisão sistemática da literatura sobre o domínio em estudo. A revisão sistemática da literatura é uma etapa essencial de qualquer projeto de investigação, na medida em que uma revisão adequada permitirá ao investigador criar uma base sólida para fazer avançar o conhecimento. Por outro lado, a revisão de literatura permite facilitar o desenvolvimento de teorias, identificar as áreas onde existe uma multiplicidade de projetos de investigação, e descobrir áreas onde é necessário realizar uma investigação [52]. Neste projeto, a revisão sistemática da literatura procurará satisfazer os seguintes objetivos de investigação: Identificar os principais modelos de maturidade adotados na Gestão de SI e caracterizar os seus diferentes estágios; Rever o Estado da Arte nos Modelos de Maturidade dos SIH; Identificar quais os fatores de sucesso e as limitações deste tipo de Modelos de Maturidade; Analisar e discutir as diferentes formas de desenvolver um modelo conceptual de maturidade na área dos SI; Identificar e caracterizar um conjunto de fatores de influência de maturidade que possam ser adotados em cada um dos estágios de maturidade de um SIH e que servirão de base para o estudo com o método Delphi. No final da revisão sistemática da literatura, um dos mais importantes resultados, para além de uma descrição do estado da arte sobre os modelos de maturidade dos SIH, será a

identificação de um conjunto inicial de fatores de influência associados aos diferentes estágios dos modelos de maturidade. Este conjunto de fatores de influência de maturidade será particularmente útil para uma posterior utilização como input na primeira ronda do método Delphi. B. Método Delphi De acordo com a abordagem metodológica apresentada anteriormente, um dos métodos a utilizar neste projeto de investigação será o método Delphi. Este é um método que ajuda na tomada de decisões baseada em opiniões e contributos de participantes com um determinado grau de experiência ou especialização no domínio em estudo [53]. Além disso, este método tem tido uma grande aceitação nas últimas décadas no domínio dos STI, como comprova a sua utilização em diversos trabalhos (e.g.: [54], [55], [56], [57]). Neste projeto, a aplicação do método Delphi terá como finalidade identificar e caracterizar os principais fatores de influência que deverão ser utilizados nos diferentes estágios dos modelos de maturidade. Dos resultados obtidos da consulta aos participantes, espera-se desenvolver e propor um modelo conceptual que permita enquadrar e classificar os fatores de influência nos estágios de maturidade de um SIH. A constituição do painel Delphi representa normalmente uma das primeiras etapas de um estudo desta natureza. Embora não exista qualquer regra para a definição de um painel, de acordo com Scheele [58], deverão ser três os tipos de participantes que deverão ser incluídos num painel para que os mesmos proporcionem uma boa diversidade de opiniões, nomeadamente: Stakeholders: são os elementos envolvidos e interessados na área em estudo e que serão diretamente afetados; Especialistas: são aqueles que têm uma experiência ou uma especialidade relevante; Facilitadores: são aqueles que têm competências para esclarecer, organizar e sintetizar. Adicionalmente, e em determinadas circunstâncias, poderá ser considerado um outro tipo de participantes que inclui pessoas que possam fornecer perspetivas ou pontos de vistas alternativos [58]. A predominância de cada um destes tipos de participantes irá depender das características do estudo que se pretende realizar. No contexto deste projeto de investigação, pretende se convidar para o painel do estudo os seguintes tipos de participantes: CEOs e CIOs de organizações de saúde com SIH implementados; Líderes de projetos de SIH; Consultores e Profissionais na área dos SIH. Relativamente ao número de participantes no painel e de acordo com a literatura, não existe uma dimensão ideal para o painel, existindo estudos que recomendam entre os 10 e os 50 participantes [56]. Neste projeto, a constituição do painel dependerá fundamentalmente dos contactos que irão ser estabelecidos e da recetividade das entidades convidadas.

CISTI 2015 | 323

VI.

CONTRIBUTOS ESPERADOS

Do trabalho a desenvolver espera-se obter os seguintes contributos: Uma revisão detalhada do estado da arte dos modelos de maturidade dos SIH; A identificação e caracterização de um conjunto de fatores de influência considerados pelos stakeholders como os principais a serem considerados no contexto da maturidade dos SIH; A proposta de um modelo e respetivos estágios de maturidade que deverão ser aplicados na Gestão dos SIH; A incorporação do modelo desenvolvido em organizações da área da saúde que facilite a tarefa de Gestão dos SIH; A proposta de uma ferramenta automática que permita identificar o estágio de maturidade em que se encontra um determinado SIH e identificar os fatores de influência que devem ser melhorados para aceder a um estágio de maturidade superior. VII. CONCLUSÕES Apresentou-se neste artigo a fase inicial de uma investigação que visa o desenvolvimento de um abrangente modelo de maturidade para a gestão dos sistemas de informação hospitalares, justificado pelas várias limitações dos modelos de maturidade atuais da área da saúde. O trabalho futuro passará pela realização de revisões sistemáticas de literatura sobre modelos de maturidade para a gestão dos sistemas de informação de um modo geral e para a gestão dos sistemas de informação hospitalares de um modo particular, o que nos permitirá identificar um conjunto de potenciais fatores de influência a serem considerados na fase inicial do desenvolvimento do modelo de maturidade a definir num processo com recurso ao Método Delphi. O modelo de maturidade resultante será validado junto de conjunto de organizações hospitalares a definir e posteriormente será desenvolvida uma ferramenta automática que permita identificar o estágio de maturidade em que se encontra um determinado SIH e o caminho que deve ser trilhado em direção a uma maturidade superior. REFERÊNCIAS B IBLIOGRÁFICAS [1] Freixo, J. & Rocha, Á., Arquitetura de Informação de Suporte à Gestão da Qualidade em Unidades Hospitalares. RISTI - Revista Ibérica de Sistemas e Tecnologias de Informação, 2014, 14, 1 - 18. doi: 10.17013/risti.14.118. [2] Sharma, B., Electronic Healthcare Maturity Model (eHMM), Chennai, India: Quintegra, 2008. [3] Rocha, Á., Evolution of Information Systems and Technologies Maturity in Healthcare, International Journal of Healthcare Information Systems and Informatics, 6(2), 28-36, 2011. [4] Nolan, R., Managing de computer resource: a stage hypotesis, Communications of de ACM, 1973, Vol. 16, nº 7, pp. 399-405. [5] Nolan, R., Managing the crisis in data processing, Harvard Business Review, 1979, Vol. 57, nº 2, pp. 115-126. [6] McKenney, James L., & McFarlan, Franklin W., The Information Archipelago Maps and Bridges. Harvard Business Review, 1982, 60(5), 109-119.

[7] King, J. e Kraemer, K., Evolution and organizational information systems: An assessment of Nolan´s stage model, Communications of de ACM, 1984, Vol. 27, nº 5, pp. 466-475. [8] Huff, Sidney L., Munro, Malcolm C., & Martin, Barbara H., Growth Stages of End-User Computing, Communications of the ACM, 1988, 31(5), 542-550. [9] Earl, M. J., Management Strategies for Information Technologies, Upper Saddle River, 1989, NJ: Prentice Hall. [10] Galliers, R. D., & Sutherland, A. R., Information systems management of Information Systems, 1991, 1(2), 89 114. doi:10.1111/j.13652575.1991.tb00030.x [11] Rocha, Á. & Vasconcelos, J., Os Modelos de Maturidade na Gestão de Sistemas de Informação, Revista da Faculdade de Ciência e Tecnologia da Universidade Fernando Pessoa, 2004, 1, 93 107. [12] Auer, Timo., Beyond IS Implemention: A Skill-Based Aproach to IS Use, Paper presented at the 3rd European Conference on Information Systems, 1995, Athens, Greece. [13] King, W. R. and Teo, T. S.H., Integration Between Business Planning and Information Systems Planning: Validating a Stage Hypothesis, 1997, In: Decision Sciences, Vol.28 nº2 pp279-307. [14] Mutsaers, E., Zee, H. & Giertz, H., The Evolution of Information Technology, Information Management & Computer Security, 1998, 6(3), 115-126. [15] Khandelwal, V. e Ferguson, J., Critical Success Factors (CSFs) and the Growth of IT in Selected Geographic Regions, Proceedings of 32nd Hawaii International Conference on Systems Sciences (HICSS-32), 1999, USA. [16] Nolan, R. e Koot, W., Nolan Stages Theory Today: A framework for senior and IT management to manage information technology, Holland Management Review, 1992, nº 31, pp. 1-24. [17] Mutafelija, B. and H. Stromberg., Systematic process improvement using ISO 9001:2000 and CMMI. 2003, Boston: Artech House. [18] Damsgaard, J., & Scheepers, R., Managing the crises in intranet implementation: a stage model, Information Systems Journal, 2000, 10(2), 131 149. doi:10.1046/j.1365-75.2000. 00076.x [19] Holland, C., & Light, B., A stage maturity model for enterprise resource planning systems, The Data Base for Advances in Information Systems, 2001, 32(2), 34 45. [20] SEI Software Engineering Institute, CMMI® for Development, Version 1.3, Improving processes for developing better products and services, 2010, (Tech. Rep. No. CMU/SEI-2010-TR-033), Carnegie Mellon University. [21] April, A., Abran, A. & Dumke, R., Assessment of software maintenance capability: A model and its architecture, In Proceedings of the 8th European Conference on Software Maintenance and Reengineering (CSMR2004) 2004, (pp. 243-248), Los Alamitos CA: IEEE Computer Society Press. [22] Levin G. & Nutt, H., Achieving Excellence in Business Development: The Business Development Capability Maturity Model. 2005. http://www.maturityresearch.com/novosite/biblio/CMM_Achieving%20E xcellence%20in%20Business%20Development.pdf (Retrieved in Set/2014). [23] Kerzner, H., Using the Project Management Maturity Model: Strategic Planning for Project Management (2nd ed.). 2005, New York: John Wiley & Sons. [24] Brookes, N. & Clark, R., Using Maturity Models to Improve Project Management Practice. POMS 20th Annual Conference, May 1 to May 4, 2009. Orlando Florida USA. [25] Murray, A., Capability Maturity Models - Using P3M3 to Improve Performance., 2006, Vol 2; Issue 0616-01-12. Available: www.outperform.co.uk (Retrieved in Set/2014). [26] Venkatesh V., Morris M., Davis G., Davis F., User acceptance of information technology: Toward a unified view, 2003, MIS Quarterly,27 (3), 425-478.

CISTI 2015 | 324

[27] Renken, J., Developing an IS/ICT management capability maturity framework. In: Research conference of the South African Institute for Computer Scientists and Information Technologists (SAICSIT). Stellenbosch, 2004, 53 62 [28] Earl, M. J., Evolving the EBusiness, Business Strategy Review (11), 2000. [29] Gardler, R. & Mehandjiev, N., Supporting Component-Based Software Evolution. In Aksit, M., Mezini, M. & Unland, R. (Eds.), Objects, Components, Architectures, Services, and Applications for a Networked World, 2003, Series: Lecture Notes in Computer Science, 2591 (pp. 103120), Springer Verlag. [30] Ludescher, G. & Usrey, M., Towards an ECMM (E-Commerce Maturity Model). In Proceedings of the First International Research Conference on Organizational Excellence in the Third Millennium. 2000, Estes Park: Colorado State University. [31] Marshall, S. E-Learning maturity model. 2007. http://www.utdc.vuw.ac.nz/research/emm/ (Retrieved in Set/2014). [32] Berztiss, A.T., Capability maturity for knowledge management., 2002. In: DEXA Workshop, IEEE Computer Society, 162-166. [33] Maybury, M.T., Knowledge Management at the MITRE Corporation. 2002. http://www.mitre.org. [34] Rosemann, M. & deBruin, T., Business Process Management Maturity A Model for Progression. In Proceedings of the 13th ECIS, May, 2005. Regensburg. [35] Nascio, NASCIO Enterprise Architecture Maturity Model, Version 1.3, National Association of State Chief Information Officers, December 2003 [36] Doc, IT Architecture Capability Maturity Model, Department of Commerce, USA Government Introduction, 2003. [37] Garets, D., & Davis, M., Electronic Medical Records versus Electronic Health Records: Yes, there is a difference, 2006, Chicago, IL: HIMSS Analytics. [38] Holland, M., Piai, S., & Dunbrack, L. A., Healthcare IT Maturity Model: Western European Hospitals - The Leading Countries (Tech. Rep. No. HI210231), 2008, Framingham, MA: IDC Health Insights. [39] Priestman, W., ICT Strategy 2007-2011 for The Royal Liverpool and Broadgreen University Hospitals NHS Trust. Trust Board Meeting 6th November 2007. Document Number: V1.4. [40] Wetering, R., & Batenburg, R., A PACS maturity model: A systematic meta-analytic review on maturation and evolvability of PACS in the hospital enterprise. International Journal of Medical Informatics, 2009, 78, 127 140. doi: 10.1016/j.ijmedinf.2008.06.010 [41] NEHTA, NEHTA Interoperability Maturity Model. 2007 ed. Level 25, 56 Pitt Street, Sydney, NSW, 2000, Australia.: National EHealth Transition Authority Ltd. [42] NHS, National Infrastructure Maturity Model (Online). 2011. Available: http://www.connectingforhealth.nhs.uk/systemsandservices/nimm (Retrieved in Set/2014). [43] Rocha, Á. & Rocha, B., Adopting nursing health record standards. Informatics for Health & Social Care, 2014, 39(1), 1-14. doi: 10.3109/17538157.2013.827200

[44] Gonçalves, J., Silveira, A. & Rocha, Á., A platform to study the quality of life in oncology patients. International Journal of Information Systems and Change Management, 2011, 5(3), 209 - 220. doi: 10.1504/IJISCM.2011.044501 [45] Gonçalves, J. & Rocha, Á., A decision support system for quality of life in head and neck oncology patients. Head & Neck Oncology, 2012, 4(3), 1 - 9. doi: 10.1186/1758-3284-4-3 [46] Mettler, T., A Design Science Research Perspective on Maturity Models in Information Systems. 2009, University of St. Gallen, St. Gallen. [47] Pfeffer, J., & Sutton, R., Knowing "what" to do is not enough: Turning knowledge into action. California Management Review, 1999, 42(1), 83108. [48] Biberoglu, E., & Haddad, H., A survey of industrial experiences with CMM and the teaching of CMM practices. Journal of Computing Sciences in Colleges, 2002, 18(2), 143-152. [49] Montoya-Weiss, M. M., & Calantone, R. J., Determinants of new product perfomance: A review and meta-analysis. Journal of Product Innovation Management, 1994, 11(5), 397-417 [50] deBruin, T., & Rosemann, M., Understanding the main phases of developing a maturity assessment model. Proceedings of the 16th Australasian Conference on Information Systems, 2005, Sydney, Australia. [51] Williams, C., Research Methods, Journal of Business & Economic Research (5:3), 2007, pp 65 71. [52] Webster, J. & Watson, R.T., Analyzing the past and prepare for the future: writing a literature review, 2002, MIS Quarterly (26:2), pp xiii xxiii. [53] Landeta, J., Current validity of Delphi method in social sciences, Institute of Applied Business Economics of University of the Basque Country (UPV/EHU), 2005, Bilbao, Spain. [54] Miaskiewicz, T. and Kozar, K., The Use of the Delphi Method to Determine the Benefits of the Personas Method An Approach to Systems Design, Proceedings of the Fifth Annual Workshop on HCI Research in MIS, 2006, Milwaukee, pp. 50 54. [55] Niederman, F., Brancheau, J.C. and Wetherbe, J.C., Information Systems Management Issues for the 1990s, MIS Quarterly (15:4, December 1991, pp 475 500. [56] Santos, L.D.d., Factores Determinantes do Sucesso de Adopção e Difusão de Serviços de Informação Online em Sistemas de Gestão de Ciência e Tecnologia, 2004, Tese de Doutoramento, Departamento de Sistemas de Informação, Universidade do Minho. [57] Leite, P., Gonçalves, J., Teixeira, P., Rocha, Á. Towards a model for the measurement of data quality in websites, New Review of Hypermedia and Multimedia, 20(4), 301-316. doi: 10.1080/13614568.2014.968638 [58] Scheele, D.S., Reality Construction as a Product of Delphi Interaction, in: The Delphi Method: Techniques and Applications H.A. Linstone and M. Turoff (eds.), 2002, http://is.njit.edu/pubs/delphibook/ (Retrieved in Set/2014).

CISTI 2015 | 325

Extracción de conocimiento a partir de datos de uso de dispositivos móviles con fines educativos Knowledge extraction from usage data of mobile devices with educational purposes Francisco de Arriba Pérez, Manuel Caeiro Rodríguez, Juan Manuel Santos Gago. Departamento de Telemática, Universidad de Vigo, Grupo GIST. Universidad de Vigo Vigo, España [email protected], [email protected], [email protected]. En este artículo se presenta un proyecto de tesis, Resumo encuadrado dentro del ámbito de las Tecnologías de la Información y de la Comunicación (TICs) relacionadas con la extracción del conocimiento y del Learning Analytics (LA). Su objetivo principal, consiste en el aprovechamiento de nuevos datos generados por sistemas móviles (smartphones, wearables, etc.), en combinación con variables ya conocidas dentro del LA, con el fin de obtener los indicadores y patrones de conducta que definen a los alumnos para de esta forma aumentar el conocimiento sobre los mismos. Palabras Clave wearables.

e-learning; learning analytics; smarthphones;

Abstract This article presents a thesis project that falls within the field of the Information and Communication Technologies (ICT) related to Knowledge Discovery and Learning Analytics (LA). The main aim is to leverage data generated by mobile devices (smartphones, wearables, and so forth) and combine them together with already known LA variables, so that relevant features and patterns that define the student behavior can be identified. Keywords wearables.

e-learning; learning analytics; smarthphones;

I.

INTRODUCCIÓN

Las dos últimas décadas han estado marcadas por un fuerte desarrollo de las TIC en nuestra sociedad. El uso de las cada vez más importantes aplicaciones electrónicas ha desembocado en la aparición de grandes volúmenes de datos. Por este motivo, las principales empresas del sector han perfeccionado algoritmos de recolección y tratamiento de información, que permiten obtener perfiles de usuarios y ofrecer, a partir de los resultados, un servicio personalizado más centrado en el usuario y no en el producto. Esta evolución ha llegado también a la educación. Así instituciones públicas y privadas como (e.g. Khan Academy, MOOCs-MiriadaX) llevan a cabo plataformas para mejorar la docencia y analizar las acciones de los estudiantes.

Una de las ramas que más ha evolucionado en el sector de las TIC es la relacionada con la implantación de dispositivos móviles de alta capacidad computacional, en concreto smartphones, tablets y más recientemente wearables. Esto ha permitido que en pocos años surgiesen nuevas formas de utilizar servicios on-line que antes eran accesibles exclusivamente, en la práctica, a través de ordenadores de escritorio. En consecuencia se ha propiciado, todavía con mayor profusión que en épocas anteriores, la aparición de grandes volúmenes de datos que son una fuente muy valiosa para la extracción de información útil en diferentes aplicaciones y servicios, aunque no siempre de forma sencilla. Estos datos proporcionan un nuevo campo de investigación de donde explorar rutinas y comportamientos de sus usuarios. De esta forma, enfocándolo al e-learning, podemos hacer análisis sobre estos datos, para obtener patrones de conducta de los estudiantes más precisos que los actuales. Para verificar la viabilidad del proyecto, se decidió realizar un estudio inicial para conocer la importancia de estos terminales en las aulas, y sus tasas de penetración. Tomamos como punto de partida investigaciones basadas en m-learning. En [1], consideran que el uso de terminales móviles para el a que aprendizaje , esto se estudia con resultados positivos en [2]. De la misma forma en [1] se expone que la principal ventaja en este tipo de dispositivos, es la posibilidad de asociar geolocalización a contenidos, permitiendo una mayor interacción de los alumnos con el contenido educativo. Combinando para ello tecnologías de realidad aumentada como en [3] o códigos QR, que aumenta la implicación de los alumnos y su motivación asociada. En [4], se expone la potencialidad de los dispositivos móviles para el aprendizaje, mostrando varios estadísticos muy valiosos: Del 95% de los alumnos con un dispositivo de estas características, solo un 40% lo ha usado con fines educativos. Por otro lado, en [1] se pone de manifiesto una idea similar, pero en esta ocasión orientada a alumnos de secundaria, donde el 90% disponen de acceso a internet y un 70% afirma

CISTI 2015 | 326

conectarse y usar el dispositivo de una forma habitual. Como conclusión, se pone de manifiesto que el uso de las plataformas móviles como complemento al aprendizaje, ha mejorado la evolución de sus alumnos de una forma notable. Por lo tanto, el uso de estos dispositivos aporta una serie de beneficios: 1) Ubicuidad de los contenidos. Ya no solo es posible ofrecer contenidos y conocimientos en las bibliotecas o en centros especializados. El acceso a la información y servicios es posible desde multitud de dispositivos móviles, en cualquier momento y desde cualquier lugar. 2) Nuevos métodos de aprendizaje. El uso de tecnologías como la realidad aumentada abre un nuevo marco de aprendizaje. Los contenidos no tienen que ser físicos para que el alumno los manipule, cualquier actividad puede ser dinámica, y apoyarse en videos/animaciones para mejorar el aprendizaje, de una forma rápida y sencilla. 3) Nuevas fuentes de datos y generación de información. Es posible recopilar estos datos y usar técnicas basadas en Machine learning (ML), para obtener nueva información y conocimiento. La literatura muestra la elevada tasa de penetración de estos dispositivos entre el alumnado y la importancia del uso de dispositivos móviles como medio de apoyo a la docencia, lo que a priori asegura un aumento de implantación en las aulas en un corto plazo. Además esta revisión deja entre ver, que actualmente tan solo se esta explotando la posibilidad de ofertar contenido, mientras que el objetivo de esta tesis sería el de nutrirse de los nuevos datos disponibles. II.

OBJETIVOS

Por ello, esta tesis se centra en la explotación de los datos generados en dispositivos móviles de los estudiantes, como smartphones, tablets y wearables. Teniendo como objetivo obtener datos y generar a partir de esta nueva información y conocimiento. Para lograrlo se combinarán técnicas de LA con el fin de detectar patrones de comportamiento y aprendizaje, no solo en el aula, sino también fuera de ella. Esto permitirá generar un modelo de estudiante que podrá ser usado posteriormente por sistemas de análisis externos (e.g. en sistemas de recomendación externos), ofreciendo recursos adaptados y mejorando el aprendizaje. Se utiliza para ello un sistema de inteligencia artificial con el fin de extraer información y conocimiento: identificar patrones de conducta y aprendizaje. A partir de ello se proporcionará un conjunto de patrones, indicadores y dimensiones de alumno. Se distinguen tres grandes líneas de estudio a abordar: 1) Identificación de datos a obtener a partir de dispositivos wearables. Como primera fase del proyecto se buscará identificar los tipos de datos recuperables que pueden ser útiles para el fin planteado. Algunos de ellos se obtendrán

a partir de los sensores del terminal. Por otro lado también se usarán los datos recopilados a través de una plataforma LMS (e.g Moodle). Algunos ejemplos de tipos de datos generados a partir de dispositivos portables son: datos de geoposición, ritmo cardíaco, número de pasos, tiempo diario dedicado a realizar ejercicio, velocidad de movimiento, etc. También se recoge la posible entrada de datos resultado del feedback del estudiante. Se trata de facilitar que los estudiantes indiquen lo que van aprendiendo, con quién, en qué lugar y de que manera, de una forma cómoda y directa. Se usará esta información como parte de la fase mejora de los modelos obtenidos. 2) Identificación de dimensiones que caracterizan de forma global al usuario. Antes de detectar patrones de conducta es necesario parametrizar los factores que caracterizan al alumno dentro de unas características compartidas con compañeros de su mismo entorno académico. Por ejemplo, antes de concluir que un alumno es muy regular en su estudio es necesario conocer sus tiempos de dedicación en la asignatura, su histórico de acceso y con esto establecer dimensión de dedicación u 3) Identificación de patrones. Se trata de la identificación y definición de comportamientos comunes en los alumnos, frente a diferentes situaciones o frente al uso de diferentes recursos educativos. Para la detección de patrones se indaga en las tecnologías de clustering, clasificación y generación automática de reglas. III.

ESTADO ACTUAL DE LA INVESTIGACIÓN

En esta sección trataremos de exponer las ideas que se han decidido explorar en estos primeros meses de la tesis. Brevemente hemos enfocado el estudio en tratar de abordar cada uno de los objetivos planteados desde un punto de vista general, de donde obtener un punto de partida. De acuerdo al objetivo 1, se presenta en la Tabla 1 los datos a recoger de forma directa de los dispositivos smartphones/wearables, que marca el inicio del análisis, de cara al resto de objetivos. En lo que respecta a los objetivos 2 y 3, se establece un sistema basado en las primitivas básicas de LA Proponemos un esquema recogen los datos a partir de los dispositivos de entrada (móviles, LMS), una vez acondicionados, se les aplica un conjunto de algoritmos para generar información. Estos algoritmos harán uso de los modelos de conocimiento. En una segunda fase, se utilizarán procesos de minería de datos para mejorar los modelos de conocimiento, para ello se usará la información generada y los datos de partida. En lo que respecta a los patrones o usaremos gran parte de la literatura artículo [5] donde se establecen los estudiante. También en [6], [7], [8],

CISTI 2015 | 327

dimensiones a obtener, a tal efecto, como el patrón sociales de un en donde se presentan

patrones de aprendizaje que definen al alumno de forma profunda durante el proceso de aprendizaje (e.g a la hora de realizar actividades), o los patrones de carácter más general presentes en [9], [10], identificando problemas de aprendizaje comunes. También encontramos artículos a tal efecto en [11], [12], donde se realiza la identificación de estilos de aprendizaje (e.g., conocedor conectado, conocedor desconectado).

probar el sistema con usuarios ficticios y en un entorno real controlado. TABLA I.

PRIMERA APROXIMACIÓN DE LOS DATOS DISPONIBLES. Smartphone/Wearables Geoposición Tiempo de visualización del dispositivo Velocidad Cantidad de pasos Altitud Pulsaciones/Actividad cardiaca Presión arterial Presión atmosférica Temperatura en el exterior Condiciones meteorológicas Feedback del alumno con independencia espacial Redes wifi accedidas

Figura 1. Representación del modelo de análisis empleado.

IV.

METODOLOGÍA PROPUESTA

Dispositivos Bluetooth utilizados

Para abordar la elaboración de este trabajo de tesis se empleará una aproximación gradual. En primer lugar se propone un modelado de los datos necesarios para la generación de los patrones. En este sentido se tomará como punto de partida sistemas ya elaborados en el ámbito del Learning Analytics como es SOLAR [13] cuya arquitectura se Fig. 2 [14] y ALAS-KA [15]. Estos sistemas presentan una distribución modular que facilita la construcción de herramientas para el análisis de datos obtenidos del estudiante a partir de sistemas LMS (Learning Management System) o SIS (Student Information System). En nuestro proyecto desarrollaremos una arquitectura semejante pero cuyo principal eje de innovación sea la extracción de información de los sistemas móviles actuales, con los que ampliar las posibilidades de actuación (independencia especial, aprendizaje personal, etc.), y con estos datos y mediante la implementación de un modelo de conocimiento, obtener nuevos patrones de estudiante. Por lo

Número de llamadas o mensajes

Por lo tanto, de forma general, el proyecto contempla la realización de las siguientes actuaciones estratégicas:

realización de un Analytics Engine, con el que establecer un Learner Profile más completo como indica la figura. Dada la naturaleza extensa de dispositivos smartphones y sistemas operativos que los gestionan, se abordará el estudio de aquellos más usados y de las mejores herramientas para la realización de análisis y obtención de trazas. Por último, se indagará en las diferentes aplicaciones con las que recoger datos y aplicar los resultados de investigación, llegando a

CISTI 2015 | 328

Definir un modelo de datos con el objetivo de recoger datos/trazas desde dispositivos móviles. Definir las traza/patrones de análisis. Establecer un sistema automático para la detección de los patrones. Definir una o varias aplicaciones para los principales sistemas operativos móviles (Android e iOS), siendo usados como soporte en la recogida y análisis de datos. Definir un escenario de prueba para validar los modelos. Clasificar claramente los patrones a partir de estudios previos, o resultados de la realización de estudios en un entorno de prueba/real. Contemplar el posible feedback del profesor en vista de los resultados mostrados y usarlo como parte del entrenamiento de los modelos, mejorando de esta forma el sistema recomendador.

REFERÉNCIAS BIBLIOGRÁFICA [1]

[2] [3] [4] [5]

Figura 2. Estructura empleada en el sistema SOLAR [13].

V.

CONCLUSIONES Y RESULTADOS ESPERADOS

A pesar de la fase temprana en la que se encuadran estos primeros estudios pertenecientes a la tesis doctoral, es constatable el interés que suscita el posible uso de los datos generados a partir de sistemas móviles, permitiendo extraer conductas y características propias del alumno hasta ahora no consideradas. Una ventaja directa consecuencia de este proyecto consistirá en usar estas conductas para adaptar el contenido, las tareas y las dinámicas de trabajo conforme a los hábitos del estudiante. En resumen, se espera conseguir un sistema capaz de recoger los datos de smartphones y wearables, detectar los indicadores de alumno y a partir de ellos obtener los patrones de grupos de estudiantes, siendo los que más se adapten al usuario objeto de análisis. Permitiendo el feedback del profesor y las valoraciones del alumnado, para enriquecer el modelo y los algoritmos utilizados.

[6] [7] [8]

[9] [10] [11]

[12] [13]

AGRADECIMIENTOS Este trabajo ha sido financiado por el Fondo Europeo para el Desarrollo Regional (FEDER), el Gobierno de España y el Gobierno Regional de Galicia bajo los proyectos TACTICA y GRC2013-006.

[14] [15]

Salvat, B. G., & Miravalles, A. F. (2013). El uso de la geolocalización en educación secundaria para la mejora del aprendizaje situado: Análisis de dos estudios de caso. RELATEC: Revista Latinoamericana de Tecnología Educativa, 12(2), 41-53. Martin, F., & Ertzberger, J. (2013). Here and now mobile learning: An experimental study on the use of mobile technology. Computers & Education, 68(0), 7685. doi:10.1016/j.compedu.2013.04.021 Specht, M., Ternier, S., & Greller, W. (2011). Mobile augmented reality for learning: A case study. Journal of the Research Center for Educational Technology, 7(1), 117-127. Sáez Pizarro, B., Ros Viñegla, M. P., Martín Sánchez-Cantalejo, Y., López López, J. M., Arce García, M. P., & Caja López, M. D. M. (2013). Actividades con smartphones en la docencia universitaria.. Taylor, J. C. (2002). Teaching and learning online: The workers, the lurkers and the shirkers. Journal of Chinese Distance Education, 9, 3137. Vermunt, J. D. (2005). Relations between student learning patterns and personal and contextual factors and academic performance. Higher education, 49(3), 205-234. Vázquez, S. M. (2009). Rendimiento académico y patrones de aprendizaje en estudiantes de ingeniería. Ingeniería y Universidad, 13(1), 105. Martínez Fernández, J. R., & García Ravidá, L. (2012). Patrones de aprendizaje en estudiantes universitarios del Máster en Educación Secundaria. In Profesorado: revista de currículum y formación del profesorado (Vol. 16, pp. 0165-182). Ros, M. Z. (2011). Patrones en elearning. Elementos y referencias para la formación. RED. Revista de Educación a distancia, (27), 1-10. Rodríguez, J. (2009). Patrones pedagógicos en educación virtual. Revista de Educación a Distancia, número monográfico X, descargado, 15(06), 2013. Galotti, K. M., Clinchy, B. M., Ainsworth, K. H., Lavin, B., & Mansfield, A. F. (1999). A new way of assessing ways of knowing: The Attitudes Toward Thinking and Learning Survey (ATTLS). Sex roles, 40(9-10), 745-766. Galotti, K. M., Drebus, D. W., & Reimer, R. L. (2001). Ways of knowing as learning styles: Learning MAGIC with a partner. Sex Roles, 44(7-8), 419-436. Siemens, G., Gasevic, D., Haythornthwaite, C., Dawson, S., Shum, S. B., Ferguson, R., ... & Baker, R. S. J. D. (2011). Open Learning Analytics: an integrated & modularized platform. Proposal to design, implement and evaluate an open platform to integrate heterogeneous learning analytics techniques. Essa, A., & Ayad, H. (2012). Improving student success using predictive models and data visualisations. Research in Learning Technology, 20. Ruipérez-Valiente, J. A., Muñoz-Merino, P. J., & Kloos, C. D. (2013, November). An architecture for extending the learning analytics support in the Khan Academy framework. In Proceedings of the First International Conference on Technological Ecosystem for Enhancing Multiculturality (pp. 277-284). ACM.

CISTI 2015 | 329

Contribuciones al desarrollo de servicios telemáticos para el análisis inteligente de trazas Propuesta para una Tesis Doctoral

Contributions to the development of telematic services for a intelligent analysis of traces A proposal for a PhD Mateo Ramos Merino, Juan Manuel Santos Gago, Luis Álvarez Sabucedo Grupo GIST - Escuela de Telecomunicaciones Universidad de Vigo Vigo, España [email protected], [email protected], [email protected] En el presente documento se describe una propuesta Contribuciones al desarrollo de servicios telemáticos para el análisis de datos en el ámbito de las eTecnologías. Aplicación al área de la eSalud ella se pretende construir un conjunto de mecanismos y herramientas destinadas a potenciar el análisis y procesado inteligente de datos asociados a un sistema de trazabilidad. Para ello, se hará uso de las técnicas propias del ámbito de Data Analytics y de las TIC. Se buscará el modelado y desarrollo de algoritmos, metodologías y modelos de representación para el tratamiento automático de información para llevar a cabo dichas tareas.

plataforma planteada potencia las ventajas de aplicar las TIC a un sistema de trazabilidad, analizadas ampliamente en [2] y [3].

Palabras Clave: trazabilidad; TIC; protocolo; Data analytics; SOP.

La plataforma telemática que se ha planteado en este grupo de investigación posee los mecanismos necesarios para recoger y administrar todas las trazas [7] generadas en los PC de cara a su posterior análisis.

Resumo

In this document, it is presented a proposal for a Contributions to the development of telematic services for data analysis in eTecnologies. Application to eHealth mechanisms and tools intended to promote the intelligent analysis of information associated to traceability systems. In line with this goal, mechanism derived from the Data Analytics models and TICs will be applied. This work pursuits the modeling and development of algorithms, methodologies and representational models for the automatic management of information to complete the above mentioned tasks.

Abstract

Keywords: trazability; ICT; protocol; Data analytics; SOP.

I.

INTRODUCCIÓN Y MOTIVACIÓN

En el grupo de investigación dentro del que se encuadra esta tesis se ha desarrollado una plataforma telemática, ToCP, que facilita la implantación de sistemas de trazabilidad [1] y control de flujos y protocolos para diferentes ámbitos de aplicación. Presenta los mecanismos necesarios para realizar la gestión del seguimiento de los diferentes elementos presentes en el contexto de uso. De la forma en la que se ha definido, la

Sistemas como este se suelen utilizar en diversos ámbitos (por ejemplo en el alimentario [4]) que requieran de controles de calidad exhaustivos y que definan la implantación de protocolos normalizados de comportamiento, conocidos en la bibliografía como Standard Operating Procedures [5]. Para la comprobación de que dichos protocolos se están llevando a cabo correctamente, se identifican Puntos de Control (PC) [6], en los cuales se deben monitorizar una serie de variables para obtener información de estado del sistema.

Actualmente, se presenta la necesidad de construir sobre esta plataforma servicios genéricos de valor añadido que permitan llevar a cabo todos los análisis pertinentes acerca de la información recogida. En esta línea se centrará la presente tesis. Se avanzará en las propuestas previas para definir herramientas de alto nivel que potencien el procesado inteligente de los datos asociados al sistema de trazabilidad. Aunque los mecanismos planteados tienen un carácter genérico, a lo largo de este documento utilizaremos un caso de ejemplo basado en la elaboración de mezclas de Nutrición Parenteral (NP) ya que, dada la red de colaboradores del grupo, existe la posibilidad de realizar pruebas reales en este contexto. En las mezclas NP el control y la calidad de los procesos que intervienen en su elaboración cobra especial importancia. En sucesivos apartados, iremos mostrando de qué manera los análisis planteados pueden ser de ayuda para este caso concreto. En el siguiente apartado analizaremos los objetivos generales y específicos en los que se sustenta esta tesis

CISTI 2015 | 330

doctoral. Aquí, haremos hincapié en las líneas específicas en las que nos centraremos. Posteriormente, en el tercer apartado, presentaremos el modelo inicial propuesto destinado a satisfacer los objetivos definidos. Haciendo uso de un diagrama de bloques, analizaremos brevemente los elementos de los que se compondría el sistema. Para finalizar, en el cuarto apartado, nos centraremos en los resultados que se esperan obtener tras la realización de la presente tesis doctoral. II.

OBJETIVOS

Para la realización de esta tesis doctoral, partiremos de los resultados obtenidos y servicios desarrollados previamente en el grupo de investigación para la gestión de procesos. En estos trabajos ya han sido resueltos diversos aspectos relacionados con el control de protocolos, tales como adquisición e integración de datos, seguridad, y aplicabilidad de las propuestas. A día de hoy ya está disponible toda la infraestructura necesaria para, a partir de un protocolo, implantar un sistema telemático vinculado a un plan de trazabilidad y control de procesos (implantación de puntos de control, asignación de roles y permisos, gestión de trazas etc.). No obstante, los servicios de valor añadido ofertados para que el usuario pueda interactuar con el sistema y visualizar los resultados han de ser definidos ad hoc para cada contexto. El objetivo principal de esta tesis será avanzar sobre las propuestas y resultados previos, diseñando y definiendo herramientas de alto nivel que permitan y potencien el procesado inteligente de datos asociados a protocolos. Nos centraremos en elaborar herramientas y mecanismos que faciliten la construcción posterior de servicios finales para el análisis de los datos. De este modo, implantando estas herramientas sobre las plataformas actuales, permitiremos a los usuarios construir de manera sencilla complejos sistemas de análisis. En el marco de esta tesis doctoral, y para satisfacer el objetivo principal, contemplaremos las siguientes líneas específicas: A. Control de la adherencia a protocolos En esta línea, planteamos la creación de herramientas que realicen una verificación automática de la adherencia a un protocolo. A partir de la información tomada a través de un sistema de trazabilidad, se trata de verificar si todas las reglas y restricciones definidas en el protocolo se están cumpliendo correctamente. Además, esta herramienta verificaría también aspectos relacionados con la definición de los puntos de control dentro del protocolo. De este modo, podría analizar, por ejemplo, si el número de PC definidos es suficiente para llevar a cabo el control de la adherencia. Hoy en día, en muchos contextos las comprobaciones de este estilo se realizan manualmente sobre algunos de los productos. Con este sistema, en la medida de lo posible, la verificación se llevaría a cabo automáticamente sobre todos y cada uno de ellos. En definitiva, se trata de una herramienta que permite analizar la adherencia al protocolo de manera sencilla y completa. Buscamos así centrarnos en las técnicas de verificación de protocolos basadas en la monitorización a través de trazas.

Para el caso de ejemplo que planteamos en la introducción, referido a la elaboración de mezclas NP, se podría comprobar de manera automática que todas las mezclas han superado los controles oportunos en el instante temporal adecuado. Además, se podrán desarrollar, con posterioridad, mecanismos para que los usuarios puedan visualizar los resultados de las verificaciones. Así mismo, si el sistema detecta anomalías, podría lanzar automáticamente alarmas sobre un producto, avisando a los responsables del despliegue. B. Análisis de prestaciones sobre sistemas basados en trazas En la segunda línea de trabajo planteamos herramientas que consigan predecir comportamientos sobre los datos tomados por la plataforma de trazabilidad. Con esto, el sistema podría anticipar en qué estado va a terminar un producto en base a las trazas que se están adquiriendo sobre él. Esta información puede ofrecerse al usuario, por ejemplo, en forma de probabilidad de terminar en un estado u otro. Así mismo, el sistema puede tratar de predecir cómo afectarían determinadas variaciones sobre las reglas definidas por el protocolo. De este modo, se puede analizar el efecto que tendrían estos cambios para deducir si su implantación radicaría en una mejora u optimización del protocolo existente. Siguiendo estas ideas, y, sobre nuestro caso de estudio con las mezclas NP, se podrían aventurar cambios en los protocolos que disminuyan el número de mezclas que se deben desechar tras su elaboración. Supongamos que en la actualidad existiese un PC (en el protocolo de elaboración de NP) en el cual se debe verificar que la mezcla se encuentra a una temperatura comprendida entre 5 y 10 grados centígrados. A priori, todos los NP cuya temperatura en el instante de paso por el PC esté comprendida en ese rango serán tomados como válidos. No obstante, por algún motivo desconocido, puede resultar que un gran número de los que han mostrado una temperatura entre 9 y 10 grados terminen siendo desechados al finalizar su elaboración. A priori, hoy en día no existe ninguna manera de detectar aspectos y relaciones como la que acabamos de mostrar. En este sentido, la herramienta que se plantea aquí buscaría automáticamente situaciones similares y propondría, a través de los mecanismos pertinentes, optimizaciones al respecto. Esto es, en nuestro ejemplo la herramienta propondría sustituir el control de temperatura entre 5 y 10 grados por uno más restrictivo entre 5 y 9 grados. En el desarrollo de las líneas que acabamos de plantear hay que tener en cuenta diferentes aspectos de gran relevancia. El estudio de este tipo de sistemas puede llegar a implicar el uso de otro tipo de técnicas ya que la complejidad inherente puede ser muy alta. Si, por ejemplo, nos encontráramos con que la cantidad de datos que deberíamos manejar llega a ser muy grande, habrá que evaluar la utilización de técnicas de Big Data así como la paralelización de los análisis. Además, puede ser conveniente, o incluso necesario, el uso de tecnologías semánticas para definir modelos formales de conocimiento, por ejemplo, para representar los protocolos. III.

MODELO PROPUESTO

A continuación ofrecemos una propuesta de modelado destinada a satisfacer los objetivos propuestos en el apartado anterior. Haciendo uso del diagrama de bloques mostrado en

CISTI 2015 | 331

Figura 1. Modelo propuesto

(Figura 1) indicaremos y analizaremos brevemente los elementos que componen el sistema. En la zona izquierda de la imagen podemos visualizar, en la parte superior, un bloque encargado de realizar un modelado normalizado del protocolo. Este módulo realiza la transferencia de un protocolo predefinido por los expertos del dominio a una representación normalizada según un modelo propuesto en la presente tesis. De esta representación será de la que beban el resto de módulos del sistema. En esta misma zona, representamos el sistema real que, modelado conforme al protocolo, representa el despliegue en un entorno físico. El sistema hará uso de los mecanismos de adquisición pertinentes para obtener la información en forma de trazas. El resto de módulos del sistema partirán de estos elementos (protocolo normalizado y trazas) como entrada básica para llevar a cabo sus análisis y deducciones (salidas). En la zona superior podemos observar los módulos relativos al comprobador de adherencia. Se alimentan con el protocolo normalizado y con las trazas y toman decisiones respecto a si las trazas se adhieren a este protocolo o no. Posee módulos que identifican los PC y clasifican las trazas en función de estos. De este modo se pueden realizar las comprobaciones de forma separada para cada PC. Así mismo, puede identificar los elementos o muestras que hacen el papel de sujeto en las trazas (en nuestro ejemplo serían las mezclas NP) y verificar la adherencia individualmente. A partir de los análisis realizados internamente, el módulo decisor realizará la verificación en base a ciertos aspectos parametrizables. A través de un fichero de configuración se

pueden establecer márgenes y umbrales de aceptación de adherencia que se deben tener en cuenta a la hora de realizar las comprobaciones. Con el fin de satisfacer los aspectos descritos en el segundo de los subobjetivos se han diseñado los módulos encargados de generar y analizar modelos predictivos, representados en la zona inferior del diagrama. El generador de modelos predictivos hace uso de las experiencias previas (en forma de trazas) para tratar de averiguar y adelantarse a futuros estados en los que puedan encontrarse las muestras. Una vez realizadas estas predicciones, el validador las estudia y comprueba si aventuran posibles estados futuros conflictivos. Analizando convenientemente estas predicciones puede realizar un informe exhaustivo de las mismas y presentar los resultados, acompañados, si cabe, de alarmas o avisos. Así mismo, todo este conocimiento extraído de las experiencias previas y de las predicciones puede utilizarse para tratar de realizar optimizaciones sobre el protocolo. En esta línea presentamos el módulo identificador de aspectos a optimizar que trata de descubrir situaciones susceptibles de mejora. Una vez que este módulo ha propuesto una optimización, el analizador de optimizaciones realiza un estudio sobre la misma de tal modo que trata de averiguar si es realmente provechosa o no. Como resultado final se ofrecerá el plan de optimización acompañado de un análisis de las mejoras estimadas. De este modo, las personas responsables del despliegue pueden valorar la implantación de los cambios de la manera que consideren más oportuna.

CISTI 2015 | 332

IV.

RESULTADOS ESPERADOS

Comentamos en este apartado los resultados que se esperan obtener tras la realización de la presente tesis de doctorado. Estos resultados están relacionados íntimamente con los objetivos antes planteados y serán producto de la investigación sobre las líneas de trabajo que hemos descrito previamente. A. Relativos a la normalización de protocolos En primer lugar (Figura2), se presentan resultados relacionados con la definición de modelos y conjuntos de modelos para representar protocolos. De un análisis previo, en donde se estudiarán y establecerán los tipos y familias de protocolos formalizados que serán soportados por las herramientas (PROMELA [8], BPMs [9], redes de Petri [10], etc.), se deducirán todas las situaciones que se deberán contemplar (por ejemplo, puede ser interesante soportar la representación de tareas temporales periódicas tales como la ingesta de medicamentos). En base a esto, se planteará un análisis exhaustivo de los lenguajes normalizados válidos para la representación de estos protocolos y se propondrá un modelo concreto. Con esto, se concluirán los artefactos expresivos suficientes para dar cabida a todas las representaciones necesarias presentes en nuestro contexto. En definitiva, se obtendrán modelos que permitan convertir los protocolos de entrada, disponibles en diversas representaciones, en una o varias normalizaciones válidas para poder realizar los análisis posteriores descritos en los objetivos.

modelos y mecanismos destinados a buscar puntos susceptibles de mejora de forma que se puedan proponer las optimizaciones oportunas. E. Relativos a la validación de la propuesta Finalmente, para validar todas las herramientas y mecanismos propuestos y que comprende la realización de esta tesis, se elaborará un prototipo operativo en donde se puedan observar y analizar los resultados obtenidos. Aprovechando la red de contactos del grupo, se pretende probar dicho prototipo sobre un entorno real situado dentro del contexto de aplicación de esta tesis. V.

CONCLUSIONES

En este documento hemos llevado a cabo una primera aproximación a las bases en las que se sustentará esta tesis doctoral. En general, nos centraremos en realizar un análisis inteligente de los datos de partida, con el fin de generar nuevo conocimiento y obtener conclusiones y resultados difícilmente alcanzables de otro modo. Aunque aquí nos hemos centrado en un caso de ejemplo concreto, las herramientas planteadas serán desarrolladas de manera genérica de tal forma que puedan posteriormente aplicarse a una gran cantidad de contextos con el fin de tratar de obtener resultados similares. AGRADECIMIENTOS Este trabajo ha sido financiado por el Fondo Europeo para el Desarrollo Regional (FEDER), el Gobierno de España y el Gobierno Regional de Galicia bajo los proyectos TACTICA y GRC2013-006 así como por el Instituto de Salud Carlos III mediante el proyecto PI13/00464, cofinanciado mediante fondos FEDER.

Figura2. Normalizador del protocolo

B. Relativos a la verificación de adherencia En segundo lugar se identificarán algoritmos y técnicas destinadas a la verificación de adherencia a protocolos basadas en la monitorización a través de trazas. De este modo, se obtendrán mecanismos que puedan comprobar la adherencia de un conjunto de trazas a un protocolo. C. Relativos a la detección de anomalías En la misma línea, se obtendrán también modelos y mecanismos destinados a la detección de anomalías sobre la información obtenida del sistema de monitorización. D. Relativos a la identificación de patrones y propuesta de optimizaciones Se contemplan también los resultados relacionados con la identificación de patrones de comportamiento que permitan predecir los estados futuros en los que es más probable que termine una muestra. Se pretende obtener modelos que generen predicciones sobre el comportamiento de los elementos bajo observación. Del mismo modo, se plantea la identificación de técnicas destinadas a analizar el impacto que puedan tener estos estados futuros. Con esto último, se esperan conseguir resultados relacionados con el análisis de las prestaciones y la propuesta de optimizaciones sobre el protocolo. Se obtendrán

REFERENCIAS BIBLIOGRÁFICAS [1]

ISO, E. N. 8402: 1995. Quality Management and Quality AssuranceVocabulary, 1995. [2] Chryssochoidis, G., Karagiannaki, A., Pramatari, K., & Kehagia, O. (2009). A cost-benefit evaluation framework of an electronic-based traceability system. British Food Journal, 111(6), 565-582. [3] Gunasekaran, A., & Ngai, E. W. (2004). Information systems in supply chain integration and management. European Journal of Operational Research,159(2), 269-295. [4] Moe, T. (1998). Perspectives on traceability in food manufacture. Trends in Food Science & Technology, 9(5), 211-214. [5] Pentland, B. T., & Feldman, M. S. (2005). Organizational routines as a unit of analysis. Industrial and corporate change, 14(5), 793-815. [6] Curbera, F., Doganata, Y., Martens, A., Mukhi, N. K., & Slominski, A. (2008). Business provenance a technology to increase traceability of end-to-end operations. In On the Move to Meaningful Internet Systems: OTM 2008 (pp. 100-119). Springer Berlin Heidelberg. [7] Jarke, M. (1998). Requirements tracing. Communications of the ACM, 41(12),32-36. [8] PROMELA Language Reference. Recuperado el 18 de febrero de 2015, de http://spinroot.com/spin/Man/promela.html. [9] Object Management Group, Business Process Model and Notation. Recuperado el 18 de febrero de 2015, de http://www.bpmn.org/ [10] für Normung, I. O., & International Electrotechnical Commission. ISO/IEC 15909-1, 2004-12: Software and System Engineering High Level Petri-Nets Part 1: Concepts, Definitions and Graphical Notation.

CISTI 2015 | 333

Towards a Framework That Promotes Integration Between the UX Design and SCRUM, Aligned to CMMI Angela Lima Peres, Silvio Lemos Meira Centro de Informática Universidade Federal de Pernambuco (UFPE) Recife, Pernambuco [email protected],[email protected] This paper proposes a framework to integrate user Abstract experience design into the software development cycle. The proposal defines practices, principles, techniques and artifacts of user experience in organizations that use agile methodologies (SCRUM) in association with CMMI process areas and the dimensions prescribed in the maturity model for user experience design recommended by the Human Factors Institute. The evolutionary path is supported by SCRUM practices. The preliminary framework is based on systematic reviews of the integration of design and experience, agile methodologies, SCRUM and CMMI. The framework, as well as future studies, will be validated and refined by panels of experts and case studies. Keywords - Maturity models; CMMI; user experience; agile methodologies; SCRUM

I. INTRODUCTION Maturity models and software improvement processes play an important role in software engineering companies that wish to optimize their development processes [1,2]. These tools provide an evolutionary path which continuously defines, maintains and optimizes software development processes, with the best practices adopted and validated by the market and the academy [1,2,3,4]. The Capability Maturity Model® of Integration for Development (CMMI-DEV) is a worldwide reference and has been adopted as a quality certifier in many software acquisition processes [1]. Maturity models have also been proposed for user experience design [5,6,7,8,9,10,11,12,13,14]. One global example was created by the organization known as the Human Factors Institute [13,14,15]. In recent times, agile methodologies have been adopted by organizations in an attempt to respond more quickly to the demands of the market, by using lighter processes in projects that involve volatile requirements, as well as the pressures of costs and short-term deadlines [16] [17]. Thus, the following questions have become relevant: is it possible to integrate, in an evolutionary manner, user experience design into the software development cycle of companies that adopt agile methodologies and CMMI? What

SCRUM practices, principles, techniques and artefacts could be suggested to favor this evolutionary adoption? How are these practices associated with the dimensions proposed in the maturity model recommended by the Human Factors Institute? There are no existing studies that have addressed these thematic issues and as such, the present paper could be useful to organizations that wish to adopt this software in order to reduce costs and improve their processes. This article proposes a framework to integrate SCRUM and practices related to user experience design into the software development cycle, in association with CMMI practices and the dimensions proposed in the maturity model for user experience design recommended by the Human Factors Institute. This article is structured as follows: section ii details the methods used in the research; section iii discusses the theoretical background and other relevant studies; section iv presents the proposed solution; section v presents the expected contributions and section vi discusses the progress already achieved and the next steps. II. METHODS The research methods involved the following: (a) a systematic literature review for the integration of agile methodologies and maturity models; (b) studying the systematic literature reviews for the integration of agile methodologies and user experience design; (c) a literature review for this integration in industrial situations; (d) a literature review for maturity models of interaction design; (e) the development of the proposed framework of interaction design practices, aligned to maturity models; (f) an assessment of the preliminary framework by panels of experts, followed by refinement of the framework after inviting researchers from ACM-SIGCHI [19], UXPA [20] and other research groups who deal with agile methodologies; (g) validation using case studies in organizations that have adopted user experience design and SCRUM. III. BACKGROUND AND RELEVANT STUDIES Concern about the quality of software development processes, which must satisfy the demands of an increasingly avid market by promoting agility and reducing costs, has led

CISTI 2015 | 334

to an increase in the use of agile methodologies in the last decade [18]. The agile manifesto was published in 2001 and lists four values that are fundamental to the development of agile software: individuals and interactions should take precedence over processes and tools; software should be able to handle comprehensive documentation; clients should collaborate in contract negotiations; software should respond to changes rather than simply follow a plan [16]. Guiding principles have been used to create several methodologies, complementing the above mentioned recommendations and citing the following: a greater involvement of clients in the elicitation, prioritization and validation of products; a reduction in delivery cycles; a focus on communication, integration and empowering the development team [17]. Dyba & Dingsøyr published an extensive literature review on agile methodologies. Among the strong reasons given for adopting these methodologies, the authors highlighted the greater adaptation and the incentive for frequent modifications to technical and functional requirements [21]. SCRUM has been indicated as one of the most popular methods in Brazil and worldwide. Its main advantage is associated with the planning and management of projects in situations involving partially-known requirements and scope. The process and development products are iterative and incremental. The team organizes itself and produces the software in sprints (short periods of time). The requirements of the system are recorded in a backlog. The product owner decides which items in the backlog should be developed in each sprint. Each sprint should generate one product to be assessed and executed [22]. Maturity models were developed and adopted by the industry and academy to improve the organizational process of software development. One of the most significant models on a worldwide scale is CMMI for Software, which defines a path of continuous improvement in terms of five levels of organizational maturity. Improving software development processes using the CMMI model has brought excellent results in terms of cost reduction, the length of programs, greater productivity, more attractive rates of return on investment (ROI), greater client satisfaction and a higher quality of product [1]. Due to the increasing adoption of agile practices around the world, recent studies have proposed solutions for the integration of agile practices into maturity models [23,24,25,26,27,28,29, 30]. However, a significant question has arisen about the evolution of technology, domains and interfaces among computer devices, leading to a greater number of users, with a diverse range of profiles in terms of the following factors: socio-economic status; culture; age; special needs and experience with technology [31]. A series of complementary disciplines has evolved to fulfil the challenge of designing products that provide a better quality for the user. This quality is measured based on the

following: efficiency; effectiveness; facility of learning; exploration; comfort while using; accessibility; satisfaction; ethical aspects and emotional aspects [31]. Several disciplines are currently researching this theme and the following methods of designing interaction have been proposed: usability; human-computer interaction; design of the interaction; design centered on the user and design centered on the users experience [31,32,33]. In the present study, Brown s definition was adopted, in which the term user experience design is used for processes and practices that seek a design that truly attends to the real needs of the user, with a special focus on interactions and the use of the product [34]. With regards to integration with software engineering, Blomkvist assessed how user experience design practices can be integrated in the cycle of development in order to promote success and reduce the amount of risk in the software engineering process [35]. Maturity models for user experience design have been proposed in recent decades and have evolved in terms of the detail of the dimensions and the practices that should be managed [13,14]. The literature contains several proposals of processes, frameworks and recommendations for the interaction of user experience design practices and the software development cycle, in association with agile methodologies [32, 35,36,37,38,39,40,41,42,43,44]. Thiago Silva conducted a literature review that included the suggestion of principles, techniques and artefacts in the use of agile methodologies with experience design [39]. Pino presented an improvement model known as PfemCOMPETISOFT, which was based on SCRUM. The roles of the team responsible for the improvement of processes are adapted based on SCRUM, thereby enabling a greater understanding and management of the process. The improvement process can be completed in one or more sprints. Each iteration consists of five activities: planning; design; execution; presentation of the improved process and presentation of the next iteration [45]. Salah and Paige proposed a framework to integrate design centered on the user and agile methodologies, based on maturity models for user experience design [43]. As yet, no studies have set out to address these thematic issues and as such, the present paper could be useful to organizations that wish to adopt this software (SCRUM and CMMI) in order to reduce costs and improve their software processes. IV. SOLUTION PROPOSED This article presents a summary of a proposed framework that is being developed to integrate SCRUM and user experience design practices in the software development cycle, aligned to CMMI practices and the dimensions proposed by the maturity model for user experience design recommended by the Human Factors Institute [14]. These dimensions include: the formalization of the development

CISTI 2015 | 335

process with the integration of user experience design practices in the development cycle; the training of the professionals involved; the establishment of patterns of corporate design; the establishment, collection and monitoring of metrics to assess the usability of the software; the creation of a database of successful cases for training purposes, thereby showing the value of user experience design in the organization; effective joint actions at the highest decisionmaking levels in order to obtain resources dedicated to the practices of user experience [14]. Each of these dimensions involves practices, principles, suggested techniques and artefacts that aim to improve the processes of an organization. These practices, principles, techniques and artefacts are based on a literature review for the integration of agile methodologies, UX and maturity models [36,37,38,39,40,41,42]. The evolution of the process and of the integration of these practices should be conducted in interactive cycles, based on SCRUM and the Pino model [45], as follows: i. Diagnosis (standardization of the institutionalization of these practices) and planning of the evolution process of the next cycle, respecting the restrictions of the deadline, as well as the human and financial costs for the organization; ii. Implementation of the cycle to improve processes in selected projects; iii. Revision of the cycle, including debates on the following themes: the lessons learned; the quality of the resulting process; improvements in the previous cycle and new problems faced; the identification of assets that will be incorporated into the knowledge base; training programs to establish the infrastructure of human and financial tools; the identification of programs to commit the highest managerial levels.

integration of agile methodologies and user experience design [38]. These reviews are being updated to include recent studies. (c) Studies that were previously published in the literature are currently being conducted to assess this integration in industrial scenarios. (d) A literature review was conducted for the theme maturity models for interaction design [41]. (e) The proposed framework, with interaction design practices aligned to preliminary maturity models, was developed and presented in a conference on agile methodologies [40]. (f) The assessment and refinement of the framework will be conducted at a later stage by specialists, based on case studies, as suggested by other authors who have proposed maturity models [28,30,46,47,48]. REFERENCES 1. 2.

3. 4. 5. 6. 7.

V. EXPECTED CONTRIBUTIONS The proposal was expected to make the following contributions: To favor the joint adotpion of user experience design, SCRUM and CMMI; To analyze the real status of the interaction design practices to be conducted, wth a view to planning improvements in the integration process of the software development cycle; To promote a model of reference that favors the planning and execution of improvements in the the integration process of the software development cycle.

8. 9. 10.

11. 12. 13.

VI. RESULTS This section presents results already obtained and discusses the next steps in the process: (a) A systematic literature review was carried out for the theme integration of agile methodologies and CMMI [29]. (b) Previously published systematic literature reviews, conducted by other authors, were studied for the themes

14. 15. 16. 17.

CMMI for Development, Version 1.3 (CMU/SEI-2010-TR-033). from the Software Engineering Institute, Carnegie Mellon University http://www.sei.cmu.edu/library/abstracts/reports/10tr033.cfm Dyba, T.: Factors of Software Process Improvement Success in Small and Large Organizations: An Empirical Study in the Scandinavian Context. Proceedings of the 9th European software engineering conference (ESEC/FSE 03) September 1- 5, Helsinki, Finland, 148-157. (2003) Mishra, D. and Mishra, A. Software Process Improvement in SMEs: A comparative View. 2009. Computer Science and Information System, 6:1, 112-140 Pino, F. J., Garcia F. and Piattini M. 2008. Software process improvement in small and medium software enterprises: a systematic review. Software Quality Control 16, 2, 237-261. Callaghan, T., UX Maturity Models: Strategic User Experience Design http://tfcallaghan.com/yahoo_site_admin/assets/docs/UX_Maturity_Mo dels__Tom_Callaghan_GPO_UX.364163310.pdf Earthy J. 1998. Usability maturity model: Human centredness scale INUSE Project deliverable D 5, 1-34. Earthy J., Jones B.S., and Bevan N. 2001. The improvement of humancentred processes\ facing the challenge and reaping the benefit of ISO 13407. Int. J. Hum.-Comput. Stud. 55, 4 ACM, 553-585. Feijó, R. 2010. Planning your UX Strategy http://johnnyholland.org/2010/04/planning-your-ux-strategy/. Jokela, T. 2010. "Usability maturity models-methods for developing the user-centeredness of companies" User Experience Magazine, 1. Jokela, T., N. Iivari, M. Nieminen, K. Nevakivi and M. Rajanen. 2001. Developing A Usability Capability Assessment Approach through Experiments in Industrial Settings. Joint Proceedings of HCI 2001 and IHM 2001. Nielsen J. 2006. Corporate Usability Maturity: Stages 1-4 (Jakob Nielsen s Alertbox) http://www.useit.com/alertbox/maturity.html. Nielsen J. 2006, Corporate Usability Maturity: Stages 5-8 (Jakob Nielsen s Alertbox) . http://www.useit.com/alertbox/process_maturity.html. Schaffer, E. 2004. The Institutionalization of Usability: A step-by-step guide. Addison Wesley: New York. Schaffer, E., Lahiri, A. 2014. The Institutionalization of UX: A step-bystep guide to a user experience practice. Addison Wesley: New York. Straub K., M. Patel, A. Bublitz, and J. Broch, 2009. The HFI UX Maturity Survey 2009 Human Factors International Inc. 1-24. Beck K. et al., Agile Manifesto http://agilemanifesto.org/. Cockburn, A. 2001. "Agile Software Development". Addison- Wesley Professional.

CISTI 2015 | 336

18. VERSIONONE. 8th Annual State of Agile Survey. 2014. Disponível em: . Acesso em: Dezembro, 2014. 19. ACM SIG CHI. International society for professionals, academics and students in human-technology and human-computer interaction (HCI). Dispon vel em: http://www.sigchi.org/. Acesso em: Abril, 2015. 20. UXPA. Usability Professionals Association, Benefits of Usability. http://www.upassoc.org/usability_resources/usability_in_the_real_world /benefits_of_usability.html. 21. Dyba, T.; Dingsoyr, T. 2008. "Empirical studies of agile software development: A systematic review". Inf. Softw. Technol. 50, 833-859. 22. Schwaber, K.; Beedle, M. "Agile Software Development with Scrum". [S.l.]: Prentice Hall, vol. 18, 2001. 23. Alegria J.A.H and Bastarrical, M.C. 2006. Implementing CMMI using a Combination of Agile Methods, CLEI Electron. J. 9:1. 24. Alleman, G. Blending Agile Developments with CMMI. 2004. Cutter IT Journal 17:6, 5-15. 25. Marçal A. S. C., Freitas B. C., Soares F. S. F., Furtado M. E. S., Maciel T. M., Belchior A. D. 2008. Blending Scrum practices and CMMI project management process areas, Innovations in Systems and Software Engineering 4:1, 17. 26. Mcmahon, P. E. Integrating CMMI® and Agile Development: Case Studies and Proven Techniques for Faster Performance Improvement. Pearson Education, 2011, 325p. 27. Santos, P. SCRUM meets CMMi. In: Dr. Dobb's Journal 32 (9), 2007, pp. 28-33. SCHWABER, K.; BEEDLE, M. Agile Software Development with Scrum. Prentice Hall, 2002, 158p. 28. Selleri, F.; Furtado, F.; Peres, A. L.; Azevedo, I. M.; Pinto, P. P.; Meira, S. A Reference Model for Agile Quality Assurance: Combining Agile Methodologies and Maturity Models. In: 9th International Conference on the Quality of Information and Communications Technology, QUATIC 14, September 23-26, IPQ, Guimarães, Portugal, 2014, pp. 139-144, DOI: 10.1109/QUATIC.2014.25 29. Selleri, F.; Furtado, F.; Peres, A. L.; Azevedo, I. M.; Vasconcelos, A. P.; Kamei, F. K; Meira, S. Using CMMI together with agile software development: A systematic review. In: Information and Software Technology 58, Feb. 2015, pp. 20-43, DOI: 10.1016/j.infsof.2014.09.012. 30. Soares, F.S.F., Meira, S.R.L. (2013). An Agile Maturity Model for Software Development Organizations. ICSEA 2013 : The Eighth International Conference on Software Engineering Advances. 31. Sharp, H.; Roger, Y.; Preece, J. 2011. "Interaction Design: beyond human-computer interaction". 3rd Edition. John Wiley & Sons. 32. Seffah, A., Gulliksen J., Desmarais M. (orgs). 2005. Human-Centered Software Engineering: integrating usability in the software development cycle. Springer. 33. Ibargoyen, A. , Szostak, D. , & Bojic M. 2013. The elephant in the conference room: Let's talk about experience terminology. CHI '13 Extended Abstracts on Human Factors in Computing Systems, 20792088. 34. Brown, D.D. 2013. Agile User Experience Design: A Practitioner's Guide to Making It Work. Morgan Kaufmann.

35. Blomkvist, S. 2005. Towards a Model for Bridging Agile Development and User-Centered Design. Human-Centered Software Engineering Integrating Usability in the Development Process, A. Seffah (eds). Springer, 219-244. 36. Barbosa D.F., Furtado E.S., and Gomes A. S. 2006. Uma proposta de institucionalização da usabilidade alinhada com práticas do modelo CMMI e foco nas necessidades da organiza o. In Proceedings of VII Brazilian symposium on Human factors in computing systems (IHC '06). ACM, New York, NY, USA, 45-48. DOI=10.1145/1298023.1298060 http://doi.acm.org/10.1145/1298023.1298060 37. Barbosa D.F., Furtado E.S., and Gomes A. S.. 2008. Uma estratégia de apoio à institucionalização da usabilidade em ambientes de desenvolvimento ágil. In Proceedings of the VIII Brazilian Symposium on Human Factors in Computing Systems (IHC '08). Sociedade Brasileira de Computa o, Porto Alegre, Brazil, Brazil, 214-223. 38. Da Silva, T. S., Martin, A., Maurer, F, Silveira, M. S. 2011. "UserCentered Design and Agile Methods: A Systematic Review " in AGILE Conference (AGILE 2011), 77- 86. 39. Memmel. T., Gundelsweiler, F., Reiterer H. 2007. Agile HumanCentered Software Engineering, Proceedings of HCI 2007, 167-175. 40. Peres, A.; Silva, T.; Selleri, F.; Furtado, F; Rosemberg, C.; Meira, S. AGILEUXModel: Towards a reference model on integrating UX in developing software using agile methodologies. In: Agile Conference 2014, IEEE, Orlando, USA, July 28 - August 1, 2014, pp. 61-63. 41. Gothelf, J.; Seiden, J. 2013."Lean UX Applying Lean Principles to Improve User Experience . O´Reilly Eric Ries, Series Editor. 42. Salah D. and Paige R. A Framework for the Integration of Agile Software Development Processes and User Centered Design (AUCDI).6th International Symposium on Empirical Software Engineering and Measurement, Lund, Sweden, September 2012. 43. Sy, D. 2007. "Adapting Usability Investigations for Agile User-centered Design". Journal of Usability Studies 2:3, 112-132. 44. Barbosa, D.F.; Furtado, E.S. and Gomes A. S. 2006. Uma proposta de institucionaliza o da usabilidade alinhada com pr ticas do modelo CMMI e foco nas necessidades da organiza o. In Proceedings of VII Brazilian symposium on Human factors in computing systems (IHC '06). ACM, New York, NY, USA, 45-48. DOI=10.1145/1298023.1298060 http://doi.acm.org/10.1145/1298023.1298060 45. Pino, F. J., Pedreirab O., Garcíac, F., Luacesb M., Piattinic, M. Using Scrum to guide the execution of software process improvement in small organizations. 46. Li, M. and Smidts, C. (2003). A ranking of software engineering measures based on expert opinion. IEEE Transactions on Software Engineering, 29(9), 811 824. 47. Kitchenham, B. A., Budgen, D., Brereton, P., Turner, M., Charters, S., and Linkman,S. (2007). Large-scale software engineering questions expert opinion or empirical evidence? IET Software, 1(5), 161. 48. Garcia, V. 2010. RiSE Reference Model for Software Reuse Adoption in Brazilian Companies. Ph.D. Thesis, Universidade Federal de Pernambuco.

CISTI 2015 | 337

Usabilidade Técnica e Pedagógica no Ensino a Distância: A percepção de alunos do Instituto Federal do Rio Grande do Norte (Brasil) em ambiente virtual de aprendizagem

Technical and Pedagogical Usability in e-Learnig: Perceptions of students from the Federal Institute of Rio Grande do Norte (Brazil) in virtual learning environment Francisco Monteiro de Sales Júnior 1, Maria Altina Silva Ramos 2

Doutorando em Ciências de Educação (Tecnologias Educativas) pela Universidade do Minho 1 2 Doutora em Educação pela Universidade do Minho e Professora na mesma Instituição Braga Portugal1,2 [email protected], [email protected] Resumo Dado o aumento no grau de exigência das novas gerações de usuários virtuais, observa-se que os ambientes virtuais de aprendizagem passaram a possuir melhor nível de qualidade de design, desde a linearidade a padrões internacionalmente recomendados, até aos aspectos de apresentação, interface e modos de interação, onde se encontram princípios de usabilidade enquanto atributo de qualidade que contempla métodos para melhorar a facilidade de uso. Estamos a realizar um estudo de doutorado que se propõe investigar a percepção de alunos do Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte (IFRN), no Brasil, no que tange à usabilidade técnica e usabilidade pedagógica no processo de aprendizagem. Palavras Chave usabilidade técnica; usabilidade pedagógica; ambiente virtual de aprendizagem; ensino a distância. Abstract Bearing in mind the new generation of v increasing demands, it is expected that virtual learning environments hold now a better quality design, from linearity to internationally recommended standards, including presentation aspects, interface and interaction modes, which are principles of technical usability, while a quality attribute that comprises methods to improve ease of use. A PhD research is being conducted, aiming to investigate the perceptions of students from Federal Institute of Education, Science and Technology in Rio Grande do Norte (IFRN), Brazil, regarding technical and pedagogical usability in the learning process. Keywords - technical and pedagogical usability, virtual learning environments (VLE), distance learning.

I.

DADOS SOBRE A INVESTIGAÇÃO

O estudo de doutoramento está sendo desenvolvido em Ciências da Educação, área Tecnologia Educativa, junto ao Departamento de Estudos Curriculares e Tecnologia Educativa do Instituto de Educação da Universidade do Minho, Portugal, no âmbito de um protocolo entre o Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte e a

Universidade do Minho. Transcorreram-se 10 (dez) meses desde o início do desenvolvimento do trabalho. II.

PROBLEMA E JUSTIFICATIVA

Desde a década de 1990 políticas governamentais voltadas para a educação no Brasil têm prezado pelo aumento da inclusão digital como exemplifica o Decreto 2.494 que regulamentou o artigo 80 da LDB (Lei nº 9.394/96) que define possibilita a autoaprendizagem, com a mediação de recursos [1]. As ações governamentais que proporciona a melhoria no acesso a portais públicos, o que inclui os ambientes virtuais de aprendizagem utilizados no âmbito do ensino a distância, têm implicação na infraestrutura computacional e de interação, considerando que os grupos a serem alcançados possuem deficiências cognitivas, e o material informacional e educacional deveriam ser criados levando em contas diretrizes de simplificação da linguagem e facilidade de uso. A disponibilização e a manutenção das informações nos portais e nos ambientes de interatividade, como o educacional, deveriam prezar por princípios de acessibilidade, possibilitando ao usuário a exploração dos seus diversos níveis sem que encontrassem dificuldades Os ambientes precisavam ser desenhados com base em princípios sólidos de arquitetura de informação e usabilidade. O princípio de usabilidade pode ser compreendido como atributo de qualidade que contempla métodos para melhorar a facilidade de uso [2]. Contudo, apesar da Web ter passado a ser uma das principais formas de obter e difundir informações na Internet, na corrida desordenada das instituições de educação para se observadas premissas básicas na concepção e adoção de seus ambientes virtuais de aprendizagem (AVA). Embora a dependência do corpo técnico especializado para a publicação de informações tenha deixado de ser um entrave com o advento da chamada WEB 2.0, permitindo maior eficácia na construção e transmissão da mensagem [3], os docentes, partícipes e

CISTI 2015 | 338

responsáveis pelos novos processos de interação, não receberam a devida capacitação no que tange a princípios relacionados à usabilidade para o uso adequado das ferramentas de colaboração implantadas, que passaram a ser utilizadas com considerável ênfase operacional. Considerando que a natural interatividade lentamente tenha ocupado os espaços das ações unidirecionais, não foi trivial aliar as facilidades da tecnologia com a essencialidade da dimensão pedagógica. Assim, sabendo que as novas tecnologias têm um papel ativo e co-estruturante nas formas do aprender e do conhecer [4], mas que esta precisa estar alinhada às demandas e estratégias pedagógicas, este trabalho apresenta a seguinte questão de pesquisa: Qual a percepção dos alunos do Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte quanto a usabilidade técnica e pedagógica em ambiente virtual de aprendizagem? O estudo analisa a percepção tanto no que delimita os ambientes e práticas existentes atualmente nos AVA, quanto em um novo ambiente virtual de aprendizagem, onde melhorias a nível da usabilidade técnica e pedagógica serão implementados. III.

OBJETIVOS

A. Geral Investigar qual a percepção dos alunos do ensino médio do IFRN quanto a usabilidade técnica e pedagógica em ambiente virtual de aprendizagem. B. Específicos Conhecer a percepção dos alunos quanto usabilidade técnica e pedagógica no ambiente virtual de aprendizagem utilizado atualmente. Implementar melhorias a nível da usabilidade técnica e pedagógica deste ambiente virtual de aprendizagem. Identificar que dimensões e critérios de usabilidade técnica e pedagógica possuem maior relevância para o processo de ensino-aprendizagem enquanto entraves ou facilitadores. Avaliar o impacto do ambiente virtual de aprendizagem melhorado no processo e no produto da aprendizagem dos alunos. Propor alterações nos ambientes virtuais de aprendizagem a partir dos resultados do estudo. IV.

REVISÃO DA LITERATURA

A. Usabilidade Técnica produto ser usado por usuários específicos para atingir objetivos específicos com eficácia, eficiência e satisfação em [5]. O conceito (genérico) trata da facilidade (ou qualidade) de uso e não deve ser negligenciado dado o risco de frustrar as expectativas dos usuários. A usabilidade técnica, abordada no contexto da Web, permeia o planejamento e implantação adequados de ambientes virtuais a partir de um projeto de arquitetura da informação,

fazendo uso de padronização e dos princípios clássicos de A essência da literatura na área reforça a implicação de que, se um ambiente virtual é adequadamente projetado e gerenciado, possuindo um alto grau de usabilidade, seus usuários estarão satisfeitos, produzirão melhor e encontrarão facilidades de uso e compreensão. Este conceito é bem respaldado e trabalhado por distintos autores que focaram suas investigações nos diferentes ambientes virtuais. Dentre outros podem ser citados os trabalhos de Nielsen [6], Alpar [7], Nielsen [8], Huizingh [9], Zhang e Dran [10], Wan [11], Oliveira [12], Nielsen e Tahir [13], Boiko [14], Friedlen [15] e Marsico e Levialdi [16]. As diretrizes de usabilidade técnica devem ser observadas no contexto do ensino a distância para que o processo ensinoaprendizagem flua normalmente, bem como abordando ambientes vituais de aprendizagem, como o de Ulbricht [17]. Contudo, semelhantemente ao ambiente real da vida em sociedade, onde há a necessidade de interações e relacionamentos, a depender do nível de atendimento virtual realizado, as iniciativas e tecnologias emergentes destinadas ao ensino a distância não garantem, em si, aprendizagem aos alunos. Convém, assim, a explanação do conceito de usabilidade pedagógica. B. Usabilidade Pedagógica Embora a usabilidade técnica apresente sua contribuição nas estruturas dinâmicas, apoiadas por sistemas funcionais que possibilita um gerenciamento adequado dos conteúdos eletrônicos, a carência da observância de aspectos pedagógicos implica em perda do objetivo final, que é a aprendizagem. Nesse contexto, apesar das inúmeras novas ferramentas de colaboração agregadas em ambientes virtuais de aprendizagem (AVA), com os devidos gerenciamentos de conteúdo, as rotinas e processos relacionados a aspectos pedagógicos podem ainda se apresentarem desestruturados, proporcionando um baixo nível de aprendizagem. O conceito de Usabilidade Pedagógica é recente e tem sido alvo de novas investigações e reflexões, sendo tratada no âmbito da avaliação da adequação da usabilidade às práticas pedagógicas em ambientes virtuais e emergentes. Ainda, proporciona transformação e mudança nos ambientes emergentes de educação aberta e em rede a partir da mediação social e cognitiva para a sustentabilidade da inovação pedagógica. Também é adotado no contexto de ambientes virtuais de aprendizagem visando contribuir, direcionar, estabelecer e adaptar critérios visando a aprendizagem. Também é associado ao desenvolvimento do material didático e como foi conduzida sua preparação pedagógica para favorecer a aprendizagem, bem como para abordar iniciativas de avaliação de sistemas de hipermídias que considerem tanto os fatores humanos e ergonômicos da interação do estudante com o ambiente, quanto os aspectos pedagógicos, relacionados com o conteúdo, forma de apresentação e estratégias didático-pedagógicas. A Usabilidade Pedagógica focaliza o fornecimento de feedbacks e de estratégias de leitura, bem como para estipular se as ferramentas, o conteúdo, a interface e as tarefas dos ambientes baseados na Web atendem às necessidades de aprendizagem dos vários aprendizes em vários contextos de aprendizagem de acordo com os objetivos pedagógicos especificados. Se a

CISTI 2015 | 339

interface Web utilizar tecnologia apenas para a transmissão de instruções estará subutilizando os artefatos que tem a sua disposição e que pode mudar fundamentalmente as concepções e métodos de ensino e aprendizagem. Logo, a usabilidade pedagógica é estudada quando se volta a um ambiente de ensino. Trabalhos diversos, incluindo conceitos apresentados, propondo averiguações empíricas, reflexões, dimensões e critérios têm sido desenvolvidos. Neste contexto são conhecidos os trabalhos de Vetromille-Castro [18], Nielsen [19], Silius and Tervakari [20] Nokelainen [21] e [22], Reitz [23], Oliveira [24], Oliveira e Silva [25], Dias [26], Agner [27], Martins [28], Santa-Rosa e Struchiner [29], Dias [30] e Matos, [31]. V.

PROCEDIMENTOS METODOLÓGICOS

O estudo é consolidado como uma pesquisa científica, sendo um estudo de caso de natureza aplicada, com abordagem qualitativa. Do ponto de vista dos objetivos, classifica-se como pesquisa descritivo-exploratória. Quanto à abrangência da pesquisa, o universo é constituído por alunos do ensino médio do Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte (IFRN), sendo a amostra definida pelo autor como todos os discentes matriculados em duas turmas da componente curricular Gestão Organizacional, no primeiro semestre do ano de 2015, para o curso técnico em Administração, em um total de 40 alunos. O professor da disciplina é o pesquisador do presente trabalho. Assim investiga a sua própria prática pedagógica, no contexto de professor-reflexivo. Para a coleta de dados, a amostra será dividida em dois grupos de alunos, mantendo ao máximo controlado todas as variáveis que possam implicar em interferência nos resultados, como idade, nível social e conhecimentos técnicos específicos. Estes grupos homogêneos de alunos respondentes serão submetidos a dois cenários distintos e controlados contendo, cada um, um Ambiente Virtual de Aprendizagem previamente configurado, cijo esquema pode ser melhor visualizado a partir da Figura 1.

usabilidade técnica e pedagógica, ou seja, um ambiente melhorado, ajustado conforme o recomendado para os princípios de usabilidade técnica e pedagógica. A pesquisa encontra-se em andamento, sendo os resultados preliminares encontrados até ao momento derivados de um estudo exploratório e apenas relacionados a observação participante. Posteriormente os dados serão coletadas a partir de teste de avaliação de conhecimento, grupos focais, entrevistas em profundidade, observações realizadas in loco e obtenção de registros realizados na plataforma Moodle. Todos os dados serão analisados a partir de Todas as etapas terão suporte de recursos computacionais agregados, como computadores, gravação de telas, vídeos e áudio, em ambiente controlado. As etapas de coleta de dados terão suporte de questionário e entrevistas semiestruturadas adaptados e ajustados dos princípios (dimensões e critérios) de usabilidade previstos por Nokelainen [22] e Reitz [23], e outros autores. Notadamente, algumas dimensões para usabilidade técnica de partida são: "Projeto interface em geral; Design específico para websites educacionais; Heurísticas de design instrucional centrado no aluno". Para usabilidade pedagógica: "Controle do aluno; controle de atividade; aprendizagem colaborativa/cooperativa; orientação de metas; aplicabilidade; valor agregado; motivação; avaliação do conhecimento prévio; flexibilidade; feedback". Cada uma dessas categorias/dimensões possui diversos critérios Além da percepção dos alunos quanto aos cenários, algumas variáveis serão particularmente registradas como as notas obtidas em avaliação de conhecimento, os registros de participação em Ambiente Virtual de Aprendizagem, a idade dos participantes, o gênero, conhecimento prévio sobre o assunto abordado na disciplina, a experiência em Ensino a Distância, o tempo dedicado ao estudo na plataforma e a quantidade de interações realizadas. O tratamento e análise dos dados serão feitos através de análise de conteúdo [32] a partir de dimensões e categorias resultantes da literatura na área da usabilidade e de categorias emergentes durante a realização da pesquisa, com suporte com software NVivo. VI.

Figura 1. Esquema de metodologia para cenários. Fonte: os autores (2015).

No primeiro cenário, os alunos interagem em um ambiente contendo design e conteúdos de aprendizagem conforme atualmente utilizado e adotado no IFRN, sem que estejam sendo observadas as condições previstas na teoria quanto a usabilidade técnica e pedagógica. No segundo cenário, um segundo grupo irá interagir com um ambiente e conteúdos de aprendizagem que apresentam condições adequadas de

RESULTADOS PRELIMINARES

Embora seja uma investigação em curso, com os testes pilotos já desenvolvidos, alguns resultados preliminares já puderam ser contemplados e apontam para a importância dos princípios de usabilidade pedagógica no alcance dos objetivos educacionais. Os dados coletados se baseiam em observação participante e anotações de verbalizações de sujeitos que apresentaram suas percepções para como atividades na modalidade de ensino a distância realizado. Conforme Nokelainen [22] e Ssemugbi [33], verificou-se a importância do critério Aprendizagem Colaborativa e Cooperativa, notadamente as questões relacionadas a atividades em grupos direcionadas à resolução de problemas, a participação do professor enquanto parceiro e não como controlador e a participação em fórum de discussão com outros alunos. Foram também relevante o critério Feedback, Orientação e Avaliação, notadamente as questões relacionadas ao retorno imediato e frequente dado por ocasião das atividades, desafios e comentários, e a orientação contínua por ocasião das tarefas realizadas em ambiente síncrono.

CISTI 2015 | 340

VII. RESULTADOS ESPERADOS E CONSIDERAÇÕES FINAIS Deseja-se confirmar dimensões, analisar novos critérios relacionados à usabilidade pedagógica, e descobrir que fatores devem ser descontinuados ou melhor observados em futuros projetos de produção de ambientes e material didático no IFRN e proporcionar indicadores de usabilidade a serem observados na criação de ambientes, recursos tecnológicos, material didático e capacitação docente no apoio à educação a distância no IFRN. Assim, o estudo é relevante por propor explicitar fatores ainda não conhecidos e que podem ajudar a explicar a assimilação ou não de conteúdos em ambientes de ensino a distância, o que proporcionará diretrizes para novos estudos na área. Deseja-se avaliar o impacto do ambiente melhorado no processo e no produto da aprendizagem dos alunos, identificando que dimensões e critérios de usabilidade técnica e pedagógica possuem maior relevância para o processo de ensino-aprendizagem enquanto entraves ou facilitadores, ou mesmo se existem novas dimensões ainda não conhecidas. De fato, este estudo tem a proposta de apresentar melhorias a cursos da instituição na modalidade a distância, tanto nos ambientes virtuais de aprendizagem quanto em materiais de apoio dos cursos, consolidando-se assim como investigação de caráter prático-aplicado, o que é positivo na conjuntura de pesquisa na atualidade. O diagnóstico será de importância crucial para o redimensionamento dos ambientes pesquisados, e um elemento norteador de futuros projetos na área, podendo ser estendido como referência na reconstrução das atuais estruturas de design no que tange a aspectos de usabilidade técnica e pedagógica. REFERÊNCIAS [1] [2] [3] [4] [5] [6] [7]

[8] [9] [10] [11] [12] [13]

Brasil, MEC. Decreto Decreto nº 2.494, de 10 de Fevereiro de 1998. Secretaria de Educação a Distância. Ministério da Educação. Brasília, 1998. Retrieved from http://edutec.net/Leis/Educacionais/edd2494.htm L. R. Oliveira, A comunicação educativa em ambientes virtuais : um modelo de design de dispositivos para o ensinoaprendizagem na universidade. Braga: Universidade do Minho, 2004. G. Granieri, Geração Blogue. Lisboa: Presença, 2006. H. Assmann, Redes digitais e metamorfoses do aprender. Petrópolis: Vozes Editora, 2005. ISO 9241, Ergonomic requirements for office work with visual display terminals, Part11: Guidance on usability, 1988. J. Nielsen, Usability Engineering. Cambridge, Mass: AP Professional, 1993. P. Alpar, Satisfaction with a Web Site: Its Measurement, Factors, and Correlates. Scheer, A.W. and Nuttgens, M. (Eds.), Electronic Business Engineering, Electronic Bussiness Engineering, 4. Heidelberg: PhisicaVerlag, 1999, pp. ,271-287. J. Nielsen, Projetando websites. Rio de Janeiro: Campus, 2000. K. R. E. Huizingh, The content and design of web sites: an empirical study. Information & Management, 37, 2000. P. Zhang, G. Dran, User Expectations and Ranking of Quality Factors in Different Web Site Domains. International Journal of Electronic Commerce, Winter 2001-2002, 6 (2), 9-33. 2002. C. S. Wan, The web sites of international tourist hotels an tour wholesalers in Taiwan. Tourism Management, 23, pp. 155-160, 2002. M. Oliveira, Fatores internos de atração: o que adotar no website. In: Anais do 26º Encontro Anual da Associação Nacional dos Programas de Pós-Graduação em Administração, pp. 1-15, 2002. J. Nielsen, M. Tahir, Homepage: 50 websites descontruídos. Rio de Janeiro: Campus, 2002.

[14] B. Boiko, Content Management Bible. Indianopolis: Wiley Publishing, Inc., 2005. [15] A. Friedlein, Como gerenciar sites Web de sucesso. Rio de Janeiro: Campus, 2003. [16] M. Marsico, S. expectations. International Journal of Human-Computer Studies, 60, pp. 381-416, 2004. [17] V. R. Ulbricht, T. Vanzin, Q. Silvia, L. Mariana, R. I. Busarello, Usabilidade e acessibilidade em ambientes virtuais de ensino aprendizagem. In: José Guilherme Santa Rosa. (Org.). Ergo Trip Design. 1ed. Rio de Janeiro: Rio Books, v. 1, pp. 84-96, 2014. [18] R. Vetromille-Castro, A usabilidade e a elaboração de materiais para o ensino de inglês mediado por computador . In Anais do X Congresso Internacional de Educação a Distância. Porto Alegre: ABED, 2003. [19] J. Nielsen, Evaluating Hypertext Usability. In D. H. Jonassen e H. Mandl (eds). Designing Hypermedia for Learning. Berlin: SpringerVerlag, pp. 147-168, 1990. [20] K. Silius, A. M. Tervakaro, S. A. Pohjolainen, Multidisciplinary Tool for the Evaluation of Usability, Pedagogical Usability, Accessibility and informational Quality of Web-based Courses. PEG2003- The Eleventh International PEG Conference: Powerful ICT for Teaching and Learning, 2003. [21] P. Nokelainen, Conceptual Definition of the Technical and Pedagogical Usability Criteria for Digital Learning Material. In L. Cantoni & C. McLoughlin (Eds.), Proceedings of World Conference on Educational Multimedia, Hypermedia and Telecommunications 2004 (pp. 42494254). Chesapeake, VA: AACE, 2004. [22] P. Nokelainen, An empirical assessment of pedagogical usability criteria for digital learning material with elementary school students. Educational Technology & Society, 9 (2), pp. 178-197, 2006. [23] D.S. Reitz, Avaliação do impacto da usabilidade técnica e pedagógica no desempenho de aprendizes em e-learning. Tese (Doutorado em Informática na Educação) - Centro Interdisciplinar de Novas Tecnologias na Educação. Universidade Federal do Rio Grande do Sul (UFRGS). Porto Alegre, 2009. [24] C. M. Oliveira, Usabilidade de design e usabilidade pedagógica a partir do olhar do aluno em EaD: Uma análise comparativa entre dois ambientes virtuais de aprendizagem. . Texto Livre, v. 3, pp. 1-9, 2011. Retrieved from http://periodicos/letras/ufmg.br/index.php/textolivre [25] C. R. Oliveira e Silva, Avaliação de Hipermídias Pedagógicas. In: Ambientes Hipermidiáticos, Pereira, A. T. C.; Santos, N.; Ulbricht, V. R. Rio de Janeiro: Editora Ciência Moderna, 2006. [26] P. Dias, Da e-moderação à mediação colaborativa nas comunidades de aprendizagem. Educação, Formação e Tecnologias, 1(1), pp. 4-10, 2008. Retrieved from http://eft.educom.pt [27] L. C. Agner, Inovação e qualidade do design na educação online: uma contribuição à usabilidade pedagógica. In: 15. Congresso Internacional ABED de Educação a Distância, Fortaleza, CE. Anais do 15 CIAED. São Paulo, SP: ABED, 2009. [28] M. L. O. A. Martins, Inter-relação Entre os Estilos de Aprendizagem, a Usabilidade de Design e a Usabilidade Pedagógica para a Construção da Interface de um Curso Universitário Online: Estudo de Caso. (Dissertação de Mestrado) Erasmus Mundus Euromime Espanha, Portugal e França, 2009. [29] J. Santa-Rosa, M. Struchiner, Design Participativo de um Ambiente Virtual de Aprendizagem de Histologia. Revista Brasileira de Pesquisa em Educação em Ciências, América do Norte, 10, 2011. Retrieved from: http://revistas.if.usp.br/rbpec/article/view/5. [30] P. Dias, Comunidades de educação e inovação na sociedade digital. Educação, Formação & Tecnologias, 5 (2), pp. 3-9, 2012. Retrieved from http://eft.educom.pt [31] E. S. Matos, Dialética da Interação Humano-Computador: tratamento didático do diálogo midiatizado. Tese. São Paulo: USP, 2013. [32] L. Bardin, Análise de Conteúdo. Lisboa: Edições 70, 2004. [33] S. Ssemugabi, Usability Evaluation of a Web-based E-Learning Application: A Study of Two Evaluation Methods. Dissertação de Mestrado em Sistemas de Informação, University of South Africa, 2006.

CISTI 2015 | 341

Usabilidade Pedagógica: Um Fator Determinante na Adoção do e-Learning no Ensino Superior Sofia Batista

Neuza Pedro

Instituto de Educação da Universidade de Lisboa Lisboa, Portugal [email protected]

Instituto de Educação da Universidade de Lisboa Lisboa, Portugal [email protected]

Resumo O artigo que apresentamos neste simpósio doutoral surge no âmbito do Curso de Doutoramento em Educação, especialidade em Tecnologias de Informação e Comunicação na Educação, do Instituto de Educação da Universidade de Lisboa. O estudo tem como objetivo principal propor e testar um modelo que permita explicar a intenção comportamental dos docentes do Ensino Superior aquando da adoção e uso continuado das plataformas de e-Learning. Para o efeito procura-se compreender o contributo da usabilidade pedagógica como fator determinante no processo de adoção da tecnologia. Palavras Chave pedagógica.

e-Learning; ensino superior; usabilidade

Abstract This proposed doctoral symposium aims to present a research project in progress in Information and Communication Technologies in Education at Instituto de Educação da Universidade de Lisboa. The study aims to analyze how the perception of pedagogical usability of learning management systems influence the adoption of these systems by teachers. To this end we want understand the contribution of pedagogical usability as a determining factor in the process of technology adoption. Keywords usability

e-Learning; higher education; pedagogical

I.

INTRODUÇÃO

Em Portugal, o subsistema de ensino superior apresenta-se, desde o início do século XX, sob uma forma dual, coexistindo o ensino universitário e o ensino politécnico. Independentemente do tipo de Instituição, a subscrição da Declaração de Bolonha, que visa a criação de um Espaço Europeu de Ensino Superior coerente entre os vários subsistemas educativos, desencadeou um conjunto de desafios. Vários autores têm sinalizado que o uso das (Tecnologias da Informação e Comunicação - TIC) no ensino superior pode contribuir para a concretização das linhas de ação da Declaração de Bolonha, designadamente no que se refere à promoção da mobilidade, promoção da dimensão europeia do ensino superior e promoção da aprendizagem ao longo da vida [1] [2]. Em Portugal, verifica-se que a integração das TIC no ensino superior tem sido feita usualmente com recurso a (Sistemas de Gestão de Aprendizagem - SGA), pelo que atualmente parte significativa das (Instituições de Ensino Superior - IES) usam plataformas de e-Learning como

complemento ao ensino presencial ou como suporte ao ensino a distância. Neste estudo apresenta-se o e-Learning como uma estratégia que pretende melhorar o ensino e aprendizagem através da utilização das TIC, independente da modalidade de ensino/formação se realize presencialmente, a distância ou em regime misto [3]. O investimento financeiro necessário e o envolvimento exigido a todos os participantes, aquando da implementação e na manutenção dos SGA, requer que seja necessário identificar e compreender quais os fatores que são determinantes no sucesso da adoção - entendida como a aceitação individual - e difusão entendida como o uso continuado -de tais sistemas. Quando, nas IES, o uso destes Sistemas é opcional, cabe aos docentes decidir se vão ou não utilizá-los nas suas práticas letivas. Esta decisão tende a não ser somente racional, e envolve a resolução de conflitos gerados por uma multiplicidade de objetivos, crenças, hábitos e prioridades. II.

ENQUADRAMENTO TEÓRICO

A. A implementação do e-Learning no Enisno Superior: os Sistemas de Gestão de Aprendizagem A implementação das plataformas de e-Learning é considerada uma iniciativa que convoca junto das Instituições a articulação de um conjunto de dimensões que tornam a sua conceção, planeamento, implementação e avaliação um exercício complexo. Quando se analisa as causas do insucesso destas iniciativas, deparamo-nos com falhas de visão institucional e cenarização estratégica [4]. Segundo [5], é necessário ter em consideração que quanto mais bem sucedida for uma iniciativa de adoção de práticas de e-learning maior será a necessidade de apoio, formação e uma infraestrutura tecnológica adequada. Com base em dados referentes a 2008, 76,3% das IES (de uma amostra de 286 estabelecimentos públicos e privados) utilizavam SGA, como o Moodle [6]. Além de suporte à partilha de documentos estaticos ou interativos, estas plataformas dispõem de ferramentas de comunicação síncrona e assíncrona que facilitam a interação entre docentes e estudantes. Segundo [7], os docentes devem escolher primeiramente a estratégia que se revela mais adequada aos objetivos de aprendizagem e só depois é que deverá ser feita a seleção das

CISTI 2015 | 342

ferramentas tecnológicas. A seleção não deverá incidir na tecnologia em si, mas na sua utilização enquanto instrumento de concretização. III.

ADOÇÃO DA TECNOLOGIA

Partindo destas considerações, parece ser fundamental para uma implementação bem sucedida das tecnologias no ensino superior, ter em consideração as atitudes dos docentes e estudantes, dado que estas podem predizer a intenção comportamental dos mesmos [8]. Contudo, as atitudes não podem ser medidas diretamente, pelo que é necessário recorrer a indicadores para a sua avaliação que englobem as componentes cognitiva, afectiva e comportamental [9]. A. Modelos teóricos Assim é necessário recorrer a modelos teóricos, em particular os que se relacionam com a adoção das tecnologias de informação e comunicação que tenham sido validados empiricamente em contextos educativos. O modelo de aceitação de tecnologia (Technology Acceptance Model - TAM) [10], representado na figura 1, é um dos modelos mais referenciados nos estudos que pretendem explicar e predizer a aceitação individual das tecnologias baseando-se nas percepções dos utilizadores.

IV.

PROBLEMA E QUESTÕES DE INVESTIGAÇÃO

A análise da problemática de adoção de práticas de eLearning sob a perspetiva dos modelos de adoção de inovação, implica considerar esta prática como inovadora. Entende-se inovação como uma ideia, prática ou objecto que é vista como nova para um indivíduo ou outra unidade de adoção [15]. Contudo, no domínio educativo, a inovação não deve ser reduzida à integração da tecnologia per se como se a mesma se constitui-se como uma prática nova. Antes deverá implicar mudanças de fundo nas práticas dos docentes e estudantes e no modelo organizacional das instituições [16]. Alguns autores determinante na eficácia pedagógica, na eficiência e satisfação dos utilizadores [17]. A usabilidade apresenta-se por duas componentes: i) uma técnica que deve assegurar a facilidade da interação com o software e uma ii) componente pedagógica que relaciona o processo de aprendizagem com a utilidade [18].

Figura 1 - Modelo de aceitação da tecnologia (TAM) Segundo este modelo, existem duas variáveis -

Figura 2 - teoria unificada de aceitação e utilização de tecnologia (UTAUT)

- que

tecnologia. Contudo, alguns autores [11] têm defendido que os utilização comportamental no contexto do e-Learning, dado que não refletem as motivações dos utilizadores. Recentemente, têm surgido outros estudos [12] e [13] que têm recorrido à teoria unificada de aceitação e utilização de tecnologia (Unified Theory of Acceptance and Use of Technology UTAUT) [14] para identificarem os fatores determinantes na aceitação do e-Learning, nomeadamente no ensino superior. O modelo UTAUT baseia-se numa abordagem integradora de variáveis de outros modelos, que na sua maioria são de natureza cognitiva, revelando assim a importância das crenças comportamentais e motivacionais para a adoção de uma tecnologia.

A conjugação deste conhecimento com os modelos de adoção da tecnologia permite delimitar o seguinte problema de investigação: A usabilidade pedagógica poderá contribuir para uma melhor compreensão do processo de adoção e uso continuado de Sistemas de Gestão de Aprendizagem no Ensino Superior em Portugal? Decorrente deste problema e procurando um referencial na operacionalização do mesmo, são apontadas as seguintes questões de investigação: - Que modelos são referenciados na literatura sobre adoção e uso continuado da tecnologia? - Qual o contributo da usabilidade pedagógica na compreensão da adoção e uso continuado de tecnologias? - Quais são os fatores determinantes no processo de adoção e uso continuado de um sistema de gestão da aprendizagem? Assim, o estudo que se pretende realizar tem como objetivo principal propor e testar um modelo que permita explicar a intenção comportamental dos docentes do ensino superior aquando da adoção e uso continuado das plataformas de eLearning.

CISTI 2015 | 343

V.

VI.

METODOLOGIA

Considerando a natureza do objetivo principal, advoga-se à investigação uma abordagem metodológica do tipo mista. Num primeiro momento, iremos recorrer ao método de Delphi combinado com a técnica Q-Sort. O primeiro passo para aplicação deste método é a seleção dos peritos, que nesta investigação corresponde a investigadores e responsáveis por projetos de implementação do e-Learning nas IES e docentes/investigadores com interesses e experiência nos domínios da adoção, gestão e avaliação da tecnologia. Reconhecemos que o número de especialistas envolvidos terá um efeito direto nos dados [19]. Contudo parece não existir um consenso sobre o número ideal de participantes num grupo Delphi, estando dependente do objetivo e contexto da investigação [20] e de outros fatores, nomeadamente de natureza extrínseca como, por exemplo, a disponibilidade para participar no estudo. Posteriormente serão enviados aos peritos que aceitem participar no estudo, um questionário de forma a obter o seu parecer sobre a relevância das variáveis em estudo para a adoção e uso continuado de plataformas de e-Learning em Portugal. No retorno dos questionários será possível verificar em que situações existe consenso ou pontos de vista divergentes entre os especialistas. Com base nas divergências obtidas será elaborado um novo questionário que será novamente enviado. Através de várias rondas, procurar-se-á obter o consenso sobre os fatores considerados como determinantes para o sucesso. O recurso à técnica de Q-Sort tem o propósito de avaliar a fiabilidade e a validade do questionário Delphi. É considerado um método alternativo de outros testes estatísticos, oferecendo uma vertente de análise quantitativa através de inferências e comparações estatísticas [21] onde os participantes são convidados a ordenar as variáveis fornecidas segundo uma distribuição predefinida (quase-normal). Esta técnica é particularmente relevante nos estudos em profundidade desenvolvidos com pequenas amostras. Comparativamente às escalas de Likert este método tem a vantagem de ser possível induzir os participantes a comparar as variáveis como um todo e não como itens individualizados [22], resultando um perfil mais realístico em que as variáveis disponibilizadas refletem uma ordem de acordo com a importância relativa de cada variável em relação com as demais. Esta abordagem oferece ainda a possibilidade de aprofundar o conhecimento sobre as opiniões e atitudes dos participantes com a mínima participação do investigador. Depois de identificado o consenso entre os fatores considerados como determinantes, será elaborado um novo modelo, que será posteriormente aplicado numa IES com a finalidade de identificar os factores considerados determinantes na intenção uso do sistema de gestão de aprendizagem nessa instituição.

RESULTADOS ESPERADOS E CONSIDERAÇÕES FINAIS

Com este projeto pretende-se não só investigar o processo de integração de plataformas de e-Learning no ensino superior, como também contribuir com um modelo que reflita variáveis de ordem pedagógica de forma a permitir às IES avaliar a forma de se desenvolver neste domínio, promovendo a identificação de linhas de ação para uma adoção bem sucedida e níveis mais elevados de utilização de tais sistemas. REFERÊNCIAS BIBLIOGRÁFICAS [1] [2]

[3] [4] [5] [6]

-learning e Educação On-line: contributos para os VII Colóquio sobre Questões Curriculares - Globalização e (des) igualdades: os desafios curriculares, 7. Centro de Investigação em Educação da Universidade do Minho, Braga, 2006. Disponível em http://hdl.handle.net/1822/5724. Higher Education Funding Council HEFCE Strategy for eLearning HEA, 2005. A. D. Figueiredo, Estratégias e modelos para a educação onIn Ensino Online e Aprendizagem Multimédia, ed. Guilhermina Lobato , 2009, pp. 32 - 55. D. Oblinger and EDUCAUSE (Association), EDUCAUSE, 1999. Proposta de um Modelo de Avaliação das Atividades de Ensino Online . Tese de Doutoramento - Universidade de Aveiro, Aveiro, 2010.

[7] Legg, D. Schneckenberg, J. Wildt (Eds.), The Challenge of eCompetence in Academic Staff Development, Galway: NUI Galway, 2006, pp. 29-35. [8] H. Gleitman, A. J. Fridlund and D. Reisberg, Psicologia. 6ª ed. Lisboa: Fundação Calouste Gulbenkian, 2003. Attitude and Attitude Change New York: John [9] H. C. Triandis Wiley & Sons, Inc, 1971. [10] F. Davis Perceived usefulness, perceived ease of use, and user acceptance of information technology MIS Quarterly, 13(3), 1989 pp.319 340. [11] behavioral intentions to use the online learning co British Journal of Educational Technology, 39(1), 2008, pp.71-83. [12] P.C. Lin, S.C. Lu, and S.K. Liu, Towards an Education Behavioral Intention Model for e-Learning Journal of Theoretical and Applied Information Techonology 47(3), 2013, pp.1120-1127. [13] 2010 Second International Conference on Mobile, Hybrid, and On-Line Learning, 2010. [14] V. Venkatesh, M.G. Morris, G. B. Davis and F.D. Davis, User acceptance of information technology: Toward a unified view . MIS Quarterly, 27 (3), 2003, pp.425-478. [15] d.). New York: Free Press, 2003. [16] 4-14. Disponível em http://eft.educom.pt. [17] M. Cooper, C. Colwell, Embedding accessibility and usability: considerations for e-learning research and development Research in Learning Technology, 15(3), 2007, pp.231 245. [18] An empirical assessment of pedagogical usability criteria for digital learning material w Educational Technology and Society, 9 (2), 2006, pp.178-197.

CISTI 2015 | 344

[19] F. Hasson, S. K 1008-1015. [20]

guidelines for the Journal of Advanced Nursing, v. 32, n. 4, 2000, pp.

as características do método Delphi e de grupo focal como técnicas na

Administração UFSM, Santa Maria, v. 6, n. 1, 2013, pp.9-24. Validating the Competing Values Model as a The International Journal of Representa Organizational Analysis, v.6, n.3, 1998, pp.231-250. [22] P. A. Tomei, G.M Russo, etodológicas em administração: o caso da utilização da Metodologia-Q como ferramenta para pesquisa e diagnóstico da cultura organizacional, Revista Administração: ensino e pesquisa. Rio de Janeiro, v. 14(1), 2013, pp 9-37.

[21]

CISTI 2015 | 345

Ingeniería de Software en la Aplicación de un Software de Mundo Virtual en Educación Software Engineering's Implementation in a Virtual World's Software for Education Maldonado, Calixto Groppo, Mario Departamento de Ingeniería de Sistemas de Información, Secretaria de Investigación Universidad Tecnológica Nacional (Fac Reg. Córdoba) y Universidad Empresarial Siglo 21 Córdoba, Argentina

Pérez Cota, Manuel Escuela de Ingeniería Industrial (Campus de Torrecedeira) Universidad de Vigo Vigo, España Resumen- El objetivo de esta tesis Doctoral del programa de Doctorado en Ingeniería de Software basado en componentes reusables, interfaz Hombre computador, es mejorar el aprendizaje de estudiantes universitarios que cursan las Ingenierías de sistemas de Información y de Software de dos universidades locales y una escuela de nivel medio, a través de interactuar con escenarios creados con software de un Mundo Virtual (MV) desarrollado a partir de los requerimientos del instructor y de las estrategias didácticas adoptadas. Se enumeran la evolución del uso educativo de los MV, las dificultades halladas y las oportunidades que este tipo de software ofrece a la tarea del docente de escuela media y universitaria, con el apoyo de la ingeniería de software. Palabras Clave: Blended Learning, Mundos Virtuales, Requerimientos, Ingeniería en Software, e-teaching, e-learning. Abstract: The aim of this PhD thesis from the program named experience for university students at the Information Systems Engineering and Software careers from two local universities and middle level school. The enhanced experience could be possible by the interaction with scenarios created with open source multi-user 3D application server and developed with the requirements of the instructor and the teaching strategies adopted. The evolution of the educational use of the Virtual Worlds, the difficulties and the opportunities discovered that this kind of software offers to the task of teaching, supported by the software engineering are listed.. Keywords: Blended Learning, Virtual Worlds, Requirements, Software Engineering, e-teaching, e-learning.

I.

EL PROBLEMA Y LA RAZÒN DE SU IMPORTANCIA

Desde el inicio del año 2007 se observó un marcado uso de los juegos interactivos con Mundos Virtuales (MV) con

diversas finalidades. Esta tendencia que alimentaba el entusiasmo de sitios de MV en línea como Second Life, Hipihi, , y que, luego de un importante crecimiento en las cifras de nuevos usuarios y accesos simultáneos fueron estancándose y decayendo desde el año 2010. Así se vio a las empresas que invirtieron en tomar posición en los MV por considerarlo estratégico, luego abandonaban su utilización de los mismos ante las primeras experiencias no muy exitosas [1]. Esto fue en todos los ámbitos en el que se aplicaron las experiencias en MVs, las empresas de entretenimientos, artistas famosos con sus recitales, empresas de todo tipo que instalaron negocios e instituciones educativas apelando a simular aulas en campus virtuales. El ejemplo de Lively, de Google, que con la explicación oficial [2] nos habla de la necesidad de la empresa de no apartarse de sus principales productos, sin mencionar el poco uso posterior a la creación de un ámbito virtual que, no tenía un objetivo claro, carecía de consignas para realizar tareas específicas dentro de habitación que se le destinaba al usuario y terminó prontamente abandonado. Numerosas universidades y colegios del mundo que habían creado sus campus virtuales en Second Life, en la actualidad estos escenarios no se encuentra actividad en la mayoría de los casos, y en muchos casos han desaparecido. La actividad académica dentro de Second Life parece haber sido puesta en pausa, esto lo demuestra que la última actividad en el Blog oficial referida a calendarios académicos data de Agosto del 2011 [3] Con el estudio realizado en este proyecto se ha encontrado que los intentos de la aplicar Mundos Virtuales a la educación, sin tener en cuenta los requerimientos de los docentes y las estrategias didácticas aplicadas, derivaron en que el artefacto construido como ambiente inmersivo no logra el efecto buscado de mejorar el aprendizaje resultando que se abandona toda la estrategia. En nuestro análisis, el problema es no haber

CISTI 2015 | 346

aplicado la Ingeniería en Software para tomar los requerimientos y por ello, se construye un artefacto que no resulta útil ni efectivo por los usuarios finales, docentes y estudiantes, ya que no se ha diseñado para un propósito educativo concreto, realizable y medible. Es la hipótesis del trabajo que el aplicar experiencias en escenarios de MV en la práctica del Blended Learning (BL) potenciará esta estrategia, al poder usarse para realizar encuentros virtuales sincrónicos a los que asistan estudiantes distantes entre sí y que les resultaría imposible reunirse físicamente, más aún si incluimos a estudiantes con problemas de motricidad medianas o graves, psicológicos como agorafobia u otros [24]. Este trabajo busca lograr probar la hipótesis aplicando la Ingeniería de Software a la construcción de MV para el uso en educación definiendo y cubriendo los requerimientos para su efectivo uso y con ello captar la atención de los participantes logrando una experiencia de aprendizaje significativa. II.

LOS OBJETIVOS Y TÓPICOS DE INVESTIGACIÓN ASOCIADOS

Desde el punto de vista de la Ingeniería de Software, el proyecto constituye una propuesta de software de MV, junto a escenarios y actividades a desarrollar en él, es decir que la tesis busca los elementos necesarios para construir una plataforma Multi-Usuario On-line soportado en un software servidor de MV, para visualizar un escenario 3D inmersivo con actividades que se muestren en la pantalla de cada uno de los asistentes. Para esto se ha llevado a cabo: A. Estudiod el ecosistema del software de Mundos Virtuales Se ha estudiado software de MV, como el de Second Life, Project OpenWonderland [17], Open Croquet [18] y OpenSimulator[22]. Adoptándose este último por ser también la elección de un grupo de Investigación de la UTN, Facultad Regional de Tucumán, Argentina. B. Estudio de las estrategias didácticas compatibles con la aplicación de MV. Se trabajó en el estudio de estrategias constructivistas de Piaget, Vigotzky, Ausubel y más actuales como Salomon [26] y Pea [27] y el crecimiento en la adopción del aprendizaje mixto o Blended Learning (BL) como estrategia superadora en el aprendizaje mediado por tecnologías. También se estudiaron en detalle la técnica de Mapas Conceptuales (MC) como uno de los elementos que pueden producirse en 3D dentro del MV y registrar en un modelo de datos los componentes de estos MC. Se diseñó una experiencia interactiva para obtener los conocimientos previos de una clase y con esto generar información útil para el diagnóstico de la clase para el docente C. Recopilar los requerimientos Encontramos imprescindible tener en cuenta los requerimientos del educador, de los potenciales alumno y las estrategias aplicadas para guiar el proceso de desarrollo de aprendizaje. Para esto es importante la profundización alcanzada en el punto anterior resultando en numerosos requerimientos de Ingeniería de Software.

D. Desarrollar y probar la hipótesis de trabajo A partir de los requerimientos, se ha conformado un proyecto de investigación y desarrollo en la UTN, Facultad Regional de Córdoba para construir en base a un servidor con OpenSimulator [22] un mundo virtual que permita construir mapas conceptuales y experiencias interactivas inmersivas, como un paseo por el Liceo de Aristóteles, donde se desarrollaba la peripatética con el filósofo y sus discípulos [12] [23]. Se aplicarán las soluciones construidas en grupos de estudiantes Secundarios y Universitarios para probar los conceptos desarrollados y comunicarlos para difundir su aplicación en otras materias. III.

QUÉ SE CONOCE

La idea de poder participar como protagonista en una experiencia similar a los juegos de video, donde el estudiante, profesor y diversos personajes estén representados por avatares en un ambiente creado que se pueda recorrer y con un sonido ambiental que dé referencia de ubicación en el espacio a los participantes, constituye una experiencia de aprendizaje significativo importante. Pese a que observamos numerosos esfuerzos abandonados, advertimos que la estrategia es adecuada, pero pobremente implementada. Esto es evidente para nuestro trabajo por cada tanto surgen productos de software como Minecraft que prometen tener importantes resultados en la aplicación educativa. Este producto recientemente fue adquirido por Microsoft y tiene previsto desarrollar usos para educación [21] esto habla de que la hipótesis es válida y hay que buscar la forma de aplicación de este software sea posible y efectiva en mejorar el aprendizaje. Las estrategias didácticas actuales pueden ser aplicadas en actividades a través de Software de MV. Estas actividades generan datos de la participación y con aplicaciones a estos datos se obtendrá información que mejore el entendimiento del profesor para guiarlo en una buena secuencia de acciones que permitan mejorar el aprendizaje de los alumnos. Se estudiaron las actuales estrategias de aprendizaje y su posibles aportes de las distintas distribuciones de software de MV disponibles [25]. Se realizaron estudios para determinar cuál campo del conocimiento aprovecharía estas estrategias y forma de llevarla a cabo la propuesta. Se vio que la Filosofía, en algunos temas muy abstractos, podría presentar dificultades en hallar metáforas y actividades que usen MV. En cambio la Física, Química, Historia y Geografía, tienen abundantes posibilidades de crear metáforas y actividades que mejorarían el aprendizaje de los participantes. En lo que hace a la investigación de estrategias didácticas se han realizado estudios y análisis que derivaron en conclusiones que figuran como aportes publicados y de los que podemos destacar: dos cuestiones. Por un lado y en cuanto al contenido, la

Es importante destacar el apoyo de la Universidad Tecnológica Nacional, Facultad Regional Córdoba y Tucumán y la Universidad Empresarial Siglo21 de Argentina y en España, la Universidad de Vigo por el apoyo en el proceso de elaboración de la Tesis base de este artículo.

CISTI 2015 | 347

incertidumbre acerca de los saberes previos de su grupo, es decir, aquellos saberes ya internalizados en sus estudiantes que le permitirían a modo de anclaje sostener aquellos que vendrán vehiculizados a través de actividades didácticas y situaciones de aprendizaje nuevas. La segunda cuestión se refiere a la incertidumbre acerca del nivel cognitivo-madurativo alcanzado por los estudiantes lo que, de saberse, permitirá la toma de decisión y puesta en práctica de líneas de acción didácticas bien precisas y funcionales al grupo clase y así ajustar acertadamente la didáctica aplicada a fin de generar conocimiento genuino. [6]

Se encontró y contactó a grupos de investigación que llevaron a cabo proyectos de aplicación de MV para educación en otra Facultad Regional de la UTN, que aplica OpenSimulator [7] para realizar tareas de enseñanza, se ha previsto la comunicación con la dirección e integrantes de los mismos para realizar un intercambio de experiencias y desarrollos.

Con todo esto, se contaría con un diagnóstico del grupo

A modo completar el contexto podemos enumerar las siguientes fuentes sobre el tema tratado:

esquemas relacionales que garanticen la significatividad de los contenidos impartidos y al mismo tiempo el pasaje hacia la retención de los conceptos. [8] IV.

METODOLOGIA PROPUESTA PARA LA RESOLUCION DEL PROBLEMA

Como punto de partida y fundamento inicial del trabajo de investigación se define que se deben determinar los requerimientos que tiene el profesor al aplicar este recurso, para mejorar la llegada del contenido a enseñar, lo prescripto, captando la atención del estudiante. Estos requerimientos para enseñar a los estudiantes una materia de Ingeniería, debe abarcar a los esquemas significativos de recepción, la teoría socio-cultural y las herramientas colaborativas que promueven captar la atención de un estudiante que presenta características generacionales propias, diferentes a las de sus actuales instructores. Durante el trabajo de elaboración se han estudiado diversas experiencias de capacitación realizando actividades en Second Life [19], SLOODLE como interfaz de SL y MOODLE, como parte de la recopilación de antecedentes y experiencias. Para lo anterior se define que durante las actividades en el MV creado, se reunirán sincrónicamente a todos los participantes del dictado de una materia, estudiantes y profesores, representados por un avatar, y a través del uso de micrófono y auriculares, se generará una señal de audio envolvente que replique el sonido de la presencia física de los compañeros y del instructor, logrando una particular sensación de inmersión en el lugar. Dado esto se ha definido como supuesto de trabajo en la investigación que la experiencia de realizar actividades en un MV debiera ser aplicada, en un comienzo, en materias dictadas con la modalidad BL que requiere una actividad presencial, permitiendo que la misma sea virtual, recibiendo el nombre de Blended Learning 2.0. [6] y [10] Esta propuesta ha generado atención e interés de una de las Universidades en las que se llevan a cabo la presente investigación, logrando ser incorporado como proyecto financiado. En otra Universidad ha prestado colaboración para iniciar un proyecto en el próximo año con aplicación en la modalidad semi presencial de la materia de Bases de datos.

La idea de usar software de MVs para educación fue presentada en el marco del congreso mundial de ingeniería 2010 en Buenos Aires en una Mesa Redonda sobre Tecnología de Informática y Comunicaciones. [14]

los juegos en los jóvenes y una de las hipótesis que se busca demostrar en este trabajo es el uso de esta atracción a fin de abrir un renovado canal por el cual llegar a la motivación, atención y comprensión genuina de contenidos por parte del estudiante. [4] generan los video juegos, y la negativa recomendación a luchar contra esta fascinación, sino por el contrario, usarla con fines pedagógicos, es que se ha logrado atraer la atención de autores co 4] realizan videos y juegos de computadora tienen la gran oportunidad de que sus mensajes sean positivamente [6] información "se conecta" con un concepto relevante o subsunsor (estructura y conocimiento previo que sirven de base para la adquisición de nuevos conocimientos) pre 5] Didáctica buscando definir los requerimientos que esta disciplina exige cumplir para lograr un aprendizaje 6] V.

ELEMENTOS DEL TRABAJO Y METODOLOGÍA

El supuesto previsto en el proyecto para que esto sea aplicado a una materia en modalidad BL 2.0 surge del estudio de la forma tradicional de BL definido como una forma de la educación a distancia mediada por tecnología, denominada Blended Learning pudiendo ser traducida como Aprendizaje Mixto que puede definirse como: aprendizaje. De un lado, el tradicional ambiente de aprendizaje lado, los ambientes distribuidos de aprendizaje que han empezado a crecer exponencialmente junto con el hecho que las TICs han expandido las posibilidades para la comunicación [9] Para poder desarrollar escenarios [10] y actividades en MV se debe tener claro el objetivo principal de la investigación, esto es, mejorar el aprendizaje usando MVs.

CISTI 2015 | 348

Como primer paso se analizan y enumeran los requerimientos didácticos del profesor y las actividades a desarrollar. Estos han sido recopilados, analizados y los resultados publicados en recientes congresos [6], se sintetizan para esta presentación.[13,15,16] a)

Se debe seleccionar un contenido curricular del prescripto a fin de valorar su metodología más adecuada.

b) Se deben plantear situaciones conflictivas. Desde símil, exigir distintas actividades a ser realizadas en pos de un objetivo dado y así posibilitar distintas estrategias y proveer herramientas para su posible resolución. c)

Se deberá introducir, previo estudio de las características socio etarias de la población de los asistentes, a los mismos mediante un ejemplo corto, sea éste narrado o animado a fin de introducirlo en el efecto sugestivo y predisponerlo del mejor modo para lo que vendrá, el efecto motivacional.

d) Es un imperativo considerar las consecuencias didácticas y metodológicas del trabajo cooperativo colaborativo, entre grupo de pares. Es decir, es esencial plantear actividades colaborativas desde las herramientas y actividades a desarrollar. e)

Debe existir un registro de la elaboración discursiva en los distintos niveles de los contenidos trabajados. Por ejemplo, si se planteara un juego con postas, o desafíos a modo de diálogo es esencial, llegar a construir colaborativamente la síntesis del trabajo. Así se irá chequeando en espiral dialéctico y se ajustarán las variaciones surgidas. Además el juego también podría avanzar dialécticamente, complejizándose cada vez más a partir de contradicciones y nuevas síntesis a medida que se va recrea el contenido.

f)

Considerar la creación de un espacio dentro de la se puedan volcar comentarios, pareceres y opiniones casuales. Ambiente que en general no se considera en la educación a distancia, sin embargo, éste sera un espacio donde podrán surgir cuestiones de importancia, conocido desde la dinámica de grupos, como lo instituyente y adquiriendo valor de verdad frente a lo establecido.

g) Finalmente, todo este despliegue desarrollado en MV, MOODLE y demás, debe estar contenido, como un componente de una actividad integral que, se asume, debe estar planificada y articulada con acceso a recursos educativos como textos académicos, debates y todo aquello que forme parte de la planificación en su totalidad. En el estudio de los fundamentos didácticos, se buscó definir los requerimientos que ésta disciplina exige para lograr un aprendizaje significativo y duradero. Se encontró que la

didáctica es una disciplina con la que se construye nuevo conocimiento, que está en constante desarrollo y en relación a diferentes contextos de aplicación, ubicando al profesor en el rol de docente-investigador, que aporta hacia la construcción de su corpus o marco conceptual [8]. Además se observó que se debe tener claro el rol y la intencionalidad del dispositivo didáctico (Software de MV y escenarios) en función de provocar cambios en el sentido de aprendizaje en los jóvenes, lo que les permitirá incorporarse activamente en la cultura y la sociedad. Así el profesor y el dispositivo promueven, con las situaciones de enseñanza orientadas hacia la transmisión de saberes, transformaciones en lo cognitivo, afectivo y social. [9] Esto último condujo a desarrollar una actividad en un escenario de MV, donde el profesor que requiere determinar si los estudiantes tienen conocimientos previos del tema próximo a exponer, referido a una Unidad Temática (UT) podrá tener reportes de cuanto saben de ésta UT y lo que conocen poco o nada de ella. Esta actividad estaría situada en una simulación de programa de televisión de preguntas y respuestas y en un panel se mostraran preguntas y opciones de respuestas. El profesor toma el rol de conductor del programa, informa de las características de la actividad, pudiendo reforzar con un beneficio de participar, como el enterarse de qué se trata lo que viene, en un juego lo que le ayudará a mejorar su desempeño próximo. Luego leerá las preguntas que además aparecerán en un tablero luminoso visible para todos, indicando el momento a responder con la letra de la opción correcta y luego de un lapso lee la respuesta correcta. Los estudiantes escucharán la pregunta, la observarán en el tablero y a través del teclado ingresarán su opción elegida y podrá enviarse a su correo el texto de las preguntas y respuestas dadas, ya que quedará registrado en la base de datos del MV, el curso, código de materia, unidad temática, id del estudiante, número de pregunta respondida, opción elegida y si es correcta. El diseño de las tablas para registrar las respuestas se creará en el motor de bases de datos usado por MOODLE, MySql. También se prevé diseñar un formulario de carga de preguntas por unidad temática de cada materia y uno o varios reportes de las respuestas dadas por los estudiantes, lo que ofrecerá un valor cuantitativo del conocimiento previo de los conceptos importantes de la UT a dictar. VI.

RESULTADOS ESPERADOS

Para elaborar la tesis, se han diseñado actividades que permitan aplicar estrategias didácticas actuales, como el manejo de los conocimientos previos para que materialicen experiencias basados en metáforas inmersivas y así despertar el interés de los estudiantes. A estas actividades ya descriptas, se definirán dos actividades extra, con especial cuidado en la elaboración de argumentos que permitan cumplir con los requerimientos detectados durante el estudio. Para plasmar estas actividades se prevé desarrollar un escenario de Mundo Virtual con el software OpenSimulator, con el agregado de, al menos 5 módulos ad-Hoc que permitan construir Mapas conceptuales, Cuestionarios interactivos, controles de interacción para que voten los estudiantes durante las actividades. Se diseñará un esquema en una Base de Datos Relacional con tablas para los datos que surjan de las

CISTI 2015 | 349

actividades anteriores con información, por ejemplo, de los conocimientos previos de los participantes. Se espera desarrollar una interfaz programática especial para el profesor con reportes que permitan conocer diferentes dimensiones de las categorías involucradas en las experiencias desarrolladas en este trabajo. Se prevé la elaboración de documentación escrita basada en autores actuales que como Vincenti [24] impulsan el uso de MV en educación, que estimule a los docentes de otras materias a pensar en metáforas aplicables al sistema construido en el presente trabajo. REFERENCIAS [1] [2] [3] [4] [5]

[6]

[7] [8]

[9]

Maldonado, Calixto; Perez Cota, Manuel

989-96247-7-1 Google, blog oficial http://googleblog.blogspot.com.ar/2008/11/livelyno-more.html visitado en 12/2014. Academic Showcase in Second Life Blog oficial http://community.secondlife.com/t5/Inworld/Academic-Showcase-inSecond-Life/ba-p/1019713 visitado en Noviembre de 2014. http://www.marcprensky.com/ dont-bother-me-mom-im-learning/ visitado en enero 2012 Maldonado, Calixto; Perez Cota, Manuel Congreso Nacional de Ingeniería Informática/Sistemas de Información (En línea) ISSN: 23470372 Córdoba. Maldonado, Calixto; Perez Cota, Manuel Requerimientos de la Didáctica para una aplicación de Mundos Virtuales . Pag. 1157. XV Workshop de Investigadores en Ciencias de la Computación WICC 2013. ISSN 978-950-766-082-5 ISBN: 9789872817961 Paraná Corrientes 2013 Torres Vallejo, y otros. CREACIÓN DE UN METAVERSO EN OPENSIM PARA LA UNIVERSIDAD DISTRITAL DENTRO DE LA RED RITA-UD. REDES DE INGENIERIA, 3(2), 51-60. 2013. Morin, Edgar; Le Moigne, Jean-Louis. La Inteligencia de la complejidad (Morin, Edgar; Le Moigne, Jean-

Souto, Marta. Grupos y dispositivos de formación. Colección Formación de Formadores. Ediciones Novedades Educativas y Facultad de Filosofía y Letras, UBA. 1999. Buenos Aires. [10] Maldonado, Calixto; Perez Cota, Manuel Ciencia y Tecnología, Nro. 13, 2013, pág. 189-202 ISSN 1850-0870. Universidad de Palermo. CABA

[11] Graham, Charles R capítulo del libro Bonk, C. J., & Graham, C. R. (2012). The handbook of blended learning: Global perspectives, local designs. John Wiley & Sons. San Francisco CA. [12] Brun, Jean Aristoteles y el liceo ISBN-10: 8475097715 Paidos Iberica Ediciones S a Madrid (1992) [13] Maldonado, Calixto; Perez Cota, Manuel Ciencia de la Computación 2012: Wicc 2012 Compilado por Horacio Daniel Kuna 1a Edición, Posadas, Universidad Nacional de Misiones, 2012 E-book ISBN 978-950-766-082-5 - Mesa Redonda T. [14] Información y Comunicación http://www.ingenieria2010argentina.info/programa/programaExtendido.php?casillero=1111151000 &sala_=11&dia_=11&idioma= [15] Maldonado, Calixto; Perez Cota, Manuel Nacional de La Rioja. 2007 [16] Maldonado, Calixto; Perez Cota, Manuel [17] [18] [19] [20] [21] [22] [23] [24] [25]

[26] [27]

- Congreso Nacional de IT Córdoba, Argentina - ISBN: 978-987-24343-2-8 www.openwonderland.org/ visitado en Abril del 2012 Www.opencroquet.org en funcionamiento restringido solo a bajar el SDK v 1.0, Second Life (2013) http://secondlife.com-/whatis/faq.php#02. visitado en Febrero 2013 Maldonado, Calixto; Perez Cota, Manuel aplicación de Mundos Virtueles En Conaiisi 2014 San Luis Actas de CoNaIISI 2014 - ISSN: 2346-9927. Pags 526 a 535. http://minecraftedu.com/news visitado en Diciembre de 2014 http://opensimulator.org/wiki/Main_Page visitado Enero 2015 http://www.nationalgeographic.com.es/articulo/historia/actualidad/9307/ antiguo_liceo_aristoteles_abre_publico.html . visitado Febrero de 2015 Vincenti, G., & Braman, J. (2011). Multi-user virtual environments for the classroom: Practical approaches to teaching in virtual worlds. Information Science Reference. Dudley, A., Braman, J., Wang, Y., Vincenti, G., & Tupper, D. (2010). Security, legal, and ethical implications of using virtual worlds. In Proceedings of the 14th World Multi-Conference on Systemics, Cybernetics and Informatics: WMSCI. Salomon, G. (2001). Cogniciones distribuidas. Ed. Amorrortu, Buenos Aires. Pea, R. D. (1993). Practices of distributed intelligence and designs for education. Distributed cognitions Psychological and educational considerations, 47-87.

CISTI 2015 | 350

Emotion & Stress Mapping Assembling an Ambient Geographic Information-based methodology in order to understand Smart Cities Tiago H. Moreira de Oliveira

Marco Painho

NOVA IMS Lisbon, Portugal [email protected]

NOVA IMS Lisbon, Portugal [email protected]

Abstract A smart city aims to improve urban functions and provided services, being often perceived as a living urban fabric, in which connected urban citizens, acting as active sensors, have the capacity to contribute even more efficiently to the spatial h perception and well-being, giving rise to an emotion-aware city. Mapping emotion builds on a tradition of studies in cognitive mapping, evaluative mapping, environmental preference and environmental affect, adding an approach in which people through social media. This paper aims to present an Ambient Geographic Information (AGI) approach to assemble geo-tagged data from Twitter, and feelings regarding Lisbon (Portugal), and therefore characterize its emotional dimension, by comparing these subjective observations with objective measurements (such as socio-demographic statistics, questionnaires and data retrieved from biometric sensors). With this vision of a smart city, that is capable to interpret and harnessing the emotional states of its citizens, it is essential to find new methods and techniques to sensing affect in an urban context.

Keywords Ambient geographic information (AGI); Volunteered geographic information (VGI); emotional mapping; Social media; emotion-aware city; smart city; Big Data

I.

the consumption of resources [1]. However, this does not directly reflect how humans actually perceive their environment and the [18]. These physical sensors are interconnected into a computing framework to create a big picture of the live state of the city [10]. This live state, however, only includes measurable quantities and disregards how the citizens actually feel. It is likely that there exist correlations between the emotional states of the citizens and relevant statistics like well-being of the city's inhabitants or quality of living [14]. When urban planners use the collected data to optimize parts of the city, the emotional state of the inhabitants can thus serve as valuable implicit feedback. This gives rise to the vision of an emotionaware city with the ability to understand and utilize the emotional states of its citizens to enable improved planning and decision making [10], in which urban citizens can be called upon to act as active sensors, staging their personal spaces and sharing their spatiality [8]. This paper aims to present a conceptual framework and methodology in order to access the human/emotional component within a smart city. II.

DEFINING SMART CITIES

A smart city operates primarily in four dimensions: the intelligent city (its social infrastructure), the digital city (informational infrastructure), the open city (open governance) and the live city (a continuously adaptive urban living fabric) [21] e no longer mere consumers of urbanity, but true producers (or produsers [2]) of these intelligent cities, since their level of spatial commitment dimensions.

INTRODUCTION

The relevance of cities in modern societies can be summed up inhabited land area; 50% of the population on the globe live in cities (80% by 2050 according to the United Nations); cities account for 75% of total consumed energy and 80% of CO2 emissions [21]. A smart city's main goal is to increase the quality of life for its citizens and to make the city more attractive, lively and greener [13]. To achieve this goal, physical sensors are deployed throughout the city to monitor various aspects such as environmental parameters (weather, pollution, etc.), traffic and

city is connected with the idea that a smart city is also a living urban fabric that is continuously being reshaped as is adaptive to change [21]. emotion within a smart city, which are key elements towards rational decision making [19]. Since emotion is a central component of human behavior and, in order for a city to be what people are doing, but also, why they are behaving in a certain way [5]. Considering emotional states is essential for achieving realtime judgment and perceived life satisfaction [10]. With this

CISTI 2015 | 351

information, city planners can make use of the gathered affective data to detect positive or negative trends developing in the city, managing to take early countermeasures. Answering subjective questions such a [10].

There are two major research challenges in the new field of emotion-aware cities, which are the detection and aggregation of affective data in an urban scenario [10]. These issues are related with the specific and personal effect of appraisal and enthusiasm, which differs from person to person [25].

But more important for a smart city is its capability to capture the sense of places. A city is not a machine, but rather made by people local actions and feelings. This could not be captured and represented without active citizens sensors (Volunteered Geographic Information [8], Ambient Geographic Information [22], crowdsourcing [9]) connected to location based-social networks [20].

This research aims to develop a methodology towards

III.

AGI: ONE STEP UP THE VGI LADDER

An active and engaged citizen is indeed the main driving [20]. Nowadays we give a growing amount of location-based contents generated by connected anytime and anywhere produsers, mainly equipped with smartphones. The exponential growth of ambient geographic information through social networks (most of them are location-based social networks) became the basic feature of a spatially enabled society [20]. Social networks are vessels which millions of people use to share their current thoughts, observations and opinions, and have been shown to provide more reliable and trustworthy information than traditional methods like questionnaires and other sources [17]. These contributions raised through the ubiquity of mobile technologies, but accessible from different platforms, act as socio-spatial mediators [15]. Mobile technologies are definitely a valuable tool for collecting affective data in the context of an emotion-aware city [16], since they can simultaneously collect both spatial location and the user posts, which should contain emotion or mood content. Social media generated from many individuals is playing a greater role in our daily lives and provides a unique opportunity to gain valuable insight on information flow and social networking within a society [12]. Through data collection and analysis of its content, it supports a greater mapping and understanding of the evolving human landscape [22]. Such data conveys Ambient Geographic Information that represent momentary social hotspots. Harvesting this ambient geospatial information provides a unique opportunity to gain valuable insight on information flow and social networking within a society, support a greater mapping, understand the human landscape and its evolution over time [22]. This emergence of AGI represents a second step in the evolution of geospatial data availability, following on the heels of Volunteered Geographic Information (VGI) [3]. According to Stefanidis [22], harvesting and analyzing such ambient information represents a substantial challenge needing new skillsets as it resides at the intersection of disciplines like geography, computational social sciences, linguistics and computer science.

emotional responses to their environment as they walk through the streets of Lisbon (Portugal). Results could suggest that about specific places are influenced by the particular physical properties and characteristics of a given place. In this context, a methodology based on AGI and VGI, could produce alternative representations of space, based on experiences, thoughts and emotions by mapping stress and emotion. The use of geospatial usergenerated content, including social media information (twitter, flickr, facebook, instagram), could lead to a better urban planning, and how living in a urban area could relate to wellbeing. IV.

METHODOLOGICAL APPROACH

The rise of social media and the ability for analysis raises several concerns with respect to the suitability of traditional mapping and GIS solutions to handle this type of information [7,23]. We no longer map just buildings and infrastructure, but we can now map abstract concepts like the flow of information in a society, contextual information to place and linking both quantitative and qualitative analysis in human geography [22]. In a sense one could consider AGI to be addressing the fact that the human social system is a constantly evolving complex changing conditions, and affect events in space and time. By moving beyond simple mashups of social media feeds to actual analysis of their content we gain valuable insight into this complex system [22]. To implement an AGI-based methodology this research will focus on creating tools and methods that can collect, analyze and share information, based on geospatial usergenerated content linked with social networks and media. Any spatial information related with emotion, enthusiasm, memories and stress rela the urban space, will be georeferenced. As a case-study, the city of Lisbon will be analyzed by using a text-mining approach in order to place in a map, any spatial tag/post related with emotion, either good or bad. Figure 1 represents the methodological approach for this research. The emotional states of Lisbon citizens will be sensed through a variety of social media sources, by extracting features and applying machine learning techniques. Finally, this AGI-based data (subjective observations) can be compared with results from objective measurements, such as sociodemographic statistics, questionnaires and data retrieved from biometric sensors.

CISTI 2015 | 352

Figure 1. Research conceptual framework (own source)

In order to collect geo-tagged data to analyze Lisbon as an emotion-aware city, Twitter, Flickr, Instagram and Facebook

spaces that are attractive, inviting and emotionally pleasing to a variety of users.

should be used, allowing interaction within the social network's ecosystem (users, communities, content, e.g.) [11].

By engaging an emotion-aware city, new forms of communication can be engaged. Traditionally, the choice of partners for online group communication is either based on pre-existing relationships or based on similar interests or location [6]. In an emotion-aware city, communication groups can be formed spontaneously, based not only on a topic, but also on location and matching emotional state. These type of interactions can start interesting discussions about controversial projects or places within the city, since personal and sensitive issues are best shared with those who fell the same about a specific area of the city, creating participatory movements.

V.

EXPECTED RESULTS & CONCLUSIONS

Mapping emotion builds on a tradition of studies in cognitive mapping, evaluative mapping, environmental preference and environmental affect [24], adding an approach in which people experience, evaluate, and describe their environment in situ through social media. ossible to visually discern areas of strong feelings, either good or bad. These areas can be called as emotional clusters, which can be defined as the tendency shared by two or more participants in a particular place. The greater the number of people reporting a strong positive or negative feeling in the same location, the exhibit aggregations of positive ratings, negative ratings, or in some cases, a mixture of strong positive and negative ratings in the same place. those spaces where, at a specific or recurring time, a certain emotion is expressed powerfully and abundantly. If they exist: do emotional landmarks change over time? Do they change according to the observer? To language? To the time of day, week, month or year? Additionally, several groups of produsers will be established, based upon social-demographic characteristics, such as: gender; age; education level; motive of trip (leisure place (old-timer, newcomer, tourist); origin (country and/or city). These geospatial practices could highlight how emotions, subjectivities and spaces are mutually constitutive in particular places and at particular times, disclosing the socially encoded meanings of different kinds of bodies in specific spatial, temporal and cultural contexts. Results could suggest that the particular physical properties and characteristics of a given place, since this technique could be used to create and maintain

An emotion and stress mapping methodology could lead to dimensions of the city and its spatial expression. GISciences can truly support the development of the intelligent city [4], due to crowdsourcing, VGI, AGI, including location-based social networks which stand out as key geospatial data sources indicative of the pulse of the city. REFERENCES [1]

A. Caragliu, C. Del Bo, P. Nijkamp, Smart Cities in Europe, J. Urban Technol. 18 (2011) 65 82.

[2]

D. Coleman, Y. Georgiadou, J. Labonte, Volunteered Geographic Information: the nature and motivation of produsers, Int. J. Spat. Data Infrastructures Res. 4 (2009) 332 358.

[3]

A. Crooks, A. Croitoru, A. Stefanidis, J. Radzikowski, #Earthquake: Twitter as a Distributed Sensor System, Trans. GIS. 17 (2013) 124 147.

[4]

S. Daniel, M.-A. Doran, geoSmartCity: Geomatics Contribution to the Smart City, Proc. 14th Annu. Int. Conf. Digit. Gov. Res. (2013) 65 71.

[5]

R.J. Dolan, Emotion, cognition, and behavior., Science. 298 (2002) 1191 4.

CISTI 2015 | 353

[6]

N.B. Ellison, C. Steinfield, C. Lampe, Connection strategies: Social capital implications of Facebookenabled communication practices, New Media Soc. 13 (2011) 873 892.

[16]

Y. Liu, P. Piyawongwisal, S. Handa, L. Yu, Y. Xu, A. Samuel, Going Beyond Citizen Data Collection with Mapster: A Mobile+Cloud Real-Time Citizen Science Experiment, 2011 IEEE Seventh Int. Conf. E-Science Work. (2011) 1 6.

[7]

M. Goodchild, Towards geodesign: Repurposing cartography and GIS?, Cartogr. Perspect. (2010) 55 69.

[17]

a. E. Marwick, D. Boyd, I tweet honestly, I tweet passionately: Twitter users, context collapse, and the imagined audience, New Media Soc. 13 (2010) 114 133.

[8]

M.F. Goodchild, Citizens as sensors: The world of volunteered geography, GeoJournal. 69 (2007) 211 221.

[18]

T. Nam, T. a. Pardo, Conceptualizing smart city with dimensions of technology, people, and institutions, Proc. 12th Annu. Int. Digit. Gov. Res. Conf. Digit. Gov. Innov. Challenging Times ) 282.

[19]

N. Naqvi, B. Shiv, A. Bechara, The role of emotion in decision making a cognitive neuroscience perspective, Curr. Dir. Psychol. Sci. 15 (2006).

[20]

P.S. Roche, Sensing Places ' Life to make City Smarter, ACM SIGKDD Int. Work. Urban Comput. (UrbComp 2012) August 12, 2012 - Beijing, China. (2012).

[21]

S. Roche, Geographic Information Science I Why does a smart city need to be spatially enabled?, Prog. Hum. Geogr. 38 (2014) 0309132513517365 .

[22]

B. Kar, R. Ghose, Is My Information Private? GeoPrivacy in the World of Social Media, Ceur-Ws.org. (2010) 2009 2012.

A. Stefanidis, A. Crooks, J. Radzikowski, Harvesting ambient geospatial information from social media feeds, GeoJournal. 78 (2013) 319 338.

[23]

Foundation for Understanding IBM Smarter Cities, IBM J. Res. Dev. (2010).

D. Sui, M. Goodchild, The convergence of GIS and social media: challenges for GIScience, Int. J. Geogr. Inf. Sci. 25 (2011) 1737 1748.

[24]

N. Lathia, D. Quercia, J. Crowcroft, The hidden image of the city: sensing community well-being from urban mobility, Pervasive Comput. (2012) 1 8.

A.R. Weinreb, Mapping feeling: An approach to the study of emotional response to the built envirnoment and landscape, J. Archit. Plann. Res. (2013) 1 19.

[25]

H. Zhang, S.-H. Lin, Affective appraisal of residents and visual elements in the neighborhood: A case study in an established suburban community, Landsc. Urban Plan. 101 (2011) 11 21.

[9]

M.F. Goodchild, J.A. Glennon, Crowdsourcing geographic information for disaster response: a research frontier, Int. J. Digit. Earth. 3 (2010) 231 241.

[10]

B. Guthier, R. Alharthi, R. Abaalkhail, A. El Saddik, Detection and Visualization of Emotions in an AffectAware City, Proc. 1st Int. Work. Emerg. Multimed. 28. Appl. Serv. Smart Cities -

[11]

[12]

[13]

[14]

[15]

S. Iaconesi, O. Persico, An Emotional Compass Harvesting Geo-located Emotional States from User Generated Content on Social Networks and Using them to Create a Novel Experience of, Proc. First Int. Work. Emot. Sentim. Soc. Expressive Media Approaches Perspect. from AI (ESSEM 2013) A Work. XIII Int. Conf. Ital. Assoc. Artif. Intell. 1096 (2013).

J. Lindqvist, J. Cranshaw, J. Wiese, J. Hong, J. Why People Use a Social-Driven Location Sharing Application, ACM Conf. Hum. Factors Comput. (2011).

CISTI 2015 | 354

Efetividade de Práticas Educacionais através da Extensão de um Framework Ambiente de Aprendizagem Ubíqua Effectiveness of Educational Practices through the Extension of a Framework Ubiquitous Learning Environment Josilene Almeida Brito IF Sertão Pernambucano Pernambuco Brasil UFPE Centro de Informática Pernambuco Brasil [email protected] [email protected]

UFPE

Alex Sandro Gomes Centro de Informática Pernambuco [email protected]

Brasil

Ricardo Amorim ( Ver nome completo) UNEB Departamento de Educação, Campus VII [email protected] Abstract This work it is a PhD project that aims to develop the communication pedagogical model of u-learning Youubi with the adequacy of pedagogical models to favor the effectiveness of learning through the use of ubiquitous technology. The work related to this issue highlights the difficulties of the adequacy of pedagogical models that incorporates the ubiquitous computing resources in the educational context. The ubiquitous learning environment that will be object of study is the YUUBI. The reason for their choice was based on the different features in ubiquitous learning situations, and that this is a free software-based environment. Initial results from the use of this environment are being analyzed. It is worth noting that the environment is continuously evolving process, allowing different types of research in this area are developed, contributing to its maturity. Thus, some methodological procedures related to the last stages of the methodology are still under review. Keywords-component: Educational Practices, Ubiquitous Learning, Framework, Effectiveness. Resumo Este trabalho trata-se de um projeto de doutoramento que tem como objetivo evoluir o modelo pedagógico de comunicaçao do u-learning Youubi com a adequação de modelos pedagógicos no sentido de favorecer a efetividade da aprendizagem com o uso de tecnologias ubiquas. Os trabalhos relacionados a este tema evidenciam dificuldades da adequação de modelos pedagógicos que incorpore os recursos de computação ubíqua no contexto educacional. O ambiente de aprendizagem ubíquo que será objeto de estudo é o YUUBI. A razão de sua escolha foi baseada nas funcionalidades

diferenciadas em situações de aprendizagem ubíqua, além de tratar-se de um ambiente baseado em software livre. Os resultados iniciais do uso deste ambiente estão sendo analisados. É preciso destacar que o ambiente está em processo de evolução contínua, permitindo assim que diferentes tipos de pesquisas nesta área sejam desenvolvidas, contribuindo para o seu amadurecimento. Assim, alguns procedimentos metodológicos referente às últimas etapas da metodologia ainda estão em fase de revisão. Palavras-chave: Praticas Educacionas, Ubíqua, Framework, Efetividade.

I.

Aprendizagem

INTRODUCÃO

Observamos nos dias atuais, uma mudança de paradigma na sociedade impulsionada pela revolução digital para uma sociedade baseada na mídia pessoal em todos os lugares e a qualquer tempo. Esses meios de comunicação pessoal combinados com as interações das pessoas e os artefatos disponibilizados nos ambientes, contribuem para novas experiências emocionais prazerosas na vida diária das pessoas. Algumas dessas transformações já são perceptíveis em alguns aspectos do cotidiano, tais como: personalização de produtos e serviços; influência dos ambientes virtuais no status social; redistribuição horizontal de conhecimento; acesso imediato à informação; consumo influenciado pelas

CISTI 2015 | 355

interações sociais; aumento do intercâmbio cultural; aumento da influência da base na pirâmide social entre outras [1]. Contudo, esse novo paradigma de comunicação pessoal, ainda esta distante de ser aproveitado nas práticas pedagógicas em sala de aula. Muitos destes dispositivos móveis são utilizados de forma pessoal e isolado do contexto de favorecimento das interações sociais que auxiliam as práticas colaborativas de aprendizagem enriquecidas pelas tecnologias. No entanto, alguns pesquisadores na atualidade, como: [2], [3], [4], [5], discutem a possibilidade de novas formas de aprendizagem utilizando estes dispositivos, não só na sala de aula, mais em diversos lugares que possam auxiliar o processo de ensino-aprendizagem. Outro ponto bastante salutar, destacado também por esses autores, se refere a preocupação com a avaliação da integração destes dispositivos como mediadores no processo de ensinoaprendizagem. Sendo assim, os dispositivos móveis surgem como mediadores que ampliam as possibilidades, os cenários e as formas de interação, deixando de ser restrita e a expande além da fronteira da sala de aula tradicional, a exemplo dos ambientes virtuais e das redes sociais[2]. Essa ampliação das formas de interação através destes dispositivos está cada vez presente no cotidiano das pessoas graças às tecnologias de computação ubíqua sensíveis ao contexto. O conceito de computação ubíqua se refere à visão de Weiser (1991) de um mundo onde os computadores invisíveis iriam apoiar as pessoas em atividades diárias, oferecendo acesso ilimitado aos recursos de informação, a qualquer hora e em qualquer lugar [9]. No estudo de [6], os autores reforçam como as tecnologias móveis facilitam as atividades de aprendizagem, destacando que os avanços das tecnologias ubíquas oferecem aos usuários dois importantes recursos na aprendizagem, que são: a aprendizagem situada no contexto e a mobilidade ubíqua. Podemos considerar que a mobilidade ubíqua é decorrente dos novos modelos de interações existentes nos dispositivos móveis como as tecnologias de sensores, por exemplo. Em face a esse novo cenário, os ambientes educacionais necessitam evoluir para um novo modelo, suportando processos educacionais que possam ser acessados a qualquer tempo, em qualquer lugar de forma integrada ao contexto, tanto virtual quanto real do aprendiz, possibilitando mudanças expressivas na prática pedagógica em sala de aula. Esse novo modelo educacional é denominado Ubiquitous Learning (u-learning) ou Educação Ubíqua [7]. Tecnologias que favoreçam esse tipo de modelo provocam situações de aprendizagem através das atividades do cotidiano dos alunos, ou seja, uma aprendizagem integrada com a vida cotidiana, e de forma contínua [10]. Embora ainda pouco adotado na educação, há indícios de que os recursos da computação ubíqua podem contribuir de forma significativa para mudanças no processo de ensinoaprendizagem. Nesse contexto, pode-se afirmar que a aprendizagem ubíqua é caracterizada pela prestação de serviços de aprendizagem de forma intuitiva, identificando colaboradores e conteúdos corretos no lugar certo e na hora certa. Sendo assim, mostra-se importante que investigações sobre novas abordagens de uso pedagógico desses recursos da computação

ubíqua como auxilio na definição/planejamento de atividades em situações de aprendizagem que possam ser acessadas a qualquer tempo, lugar de forma integrada ao contexto, tanto virtual quanto real. O problema central desta pesquisa tem como foco explorar as dificuldades de adequação de atividades em situações de aprendizagem que incorpore os recursos de computação ubíqua. Busca-se uma efetividade do uso dessa tecnologia no contexto educacional de forma a promover a aprendizagem significativa. A questão central na nossa pesquisa é: A adequação de atividades em situações ubíquas de aprendizagem cria condições mais favoráveis a uma aprendizagem efetiva em atividades de aprendizagem? A questão central na nossa pesquisa propõe responder as seguintes perguntas: Qual a relaçao entre o conteúdo que o aluno recebe e o lugar que ele está? O uso de tecnologias ubíquas promove uma aprendizagem mais significativa em relação a uma abordagem tradicional de ensino? Produz impacto no sentido de reforço à capacidade do aluno em resolver problema proposto pelo professor a partir de conceito apresentado no espaço escolar? As hipóteses (H) preliminares desta pesquisa são: H1: O uso de tecnologia ubíqua promove uma aprendizagem mais significativa em relação ao ensino tradicional. H2: Ambientes ubíquos favorecem a efetividade da aprendizagem dentro e fora de sala de aula. H3: A adequaçao de atividades em situaçoes ubíquas de aprendizagem promove a capacidade do aluno na resolução das atividades propostas. Com propósito de validar as hipóteses que encontram-se em andamento, busca evoluir o modelo pedagógico de comunicação do ambiente u-learning Youubi no sentido de favorecer a efetividade da aprendizagem com o uso de tecnologias ubiquas. Este trabalho está organizado da seguinte forma: A seção II discute a efetividade em ambiente de aprendizagem baseado no contexto. A seção III apresenta o ambiente de ulearning Youubi que é objeto do nosso estudo. Na sequência, o problema e os objetivos deste projeto são evidenciados. E, por fim, a seção V apresenta a proposta inicial para o método a ser utilizado neste projeto. II.

EFETIVIDADE EM AMBIENTE DE APRENDIZAGEM BASEADO NO CONTEXTO

Em um ambiente de aprendizagem ubíqua ideal, a comunicação do computador com os dispositivos sensoriais são incorporados e integrados em situaçoes reais do dia a dia, permitindo que os alunos melhorem totalmente em diferentes situações de aprendizagem [13]. Em essência, todos os recursos baseado no contexto ulearning, permite melhor compreender e adaptar-se aos comportamentos dos alunos e ajustar parâmetros ambientais presentes no mundo real [15]. Para [13], um fator

CISTI 2015 | 356

fundamental durante o processo de acompanhamento do aluno é ter ciência do contexto onde o aluno está agindo. Para [15]: uma aplicação é dita sensível ao contexto se a mesma utiliza informações sobre o contexto de entidades relevantes ao seu domínio para prover informações ou serviços a seus usuários. Contudo, as informações que compõem o contexto do usuário incluem a localização, identidade ou estado físico ou comportamental de pessoas ou objetos físicos.

Hypertext Transfer Protocol -HTTP (protocolo padrão de comunicação na camada de aplicação da Internet.) Manager: Este componente recebe as solicitações provenientes de clientes e implementam suas respectivas regras de negócio, atualização dos indicadores de padrões e de comportamento dos usuários com base nas interações no sistema. Collector: este componente é responsável pela coleta de dados em outros sistemas que fornecem uma API de acesso, tais como Google, YouTube, Wikipedia, Facebook, Twitter, Redu, Moodle, e outros. Analyzer: Este componente é responsável pela análise dos dados armazenados no banco de dados, a fim de identificar novas informações que podem enriquecer o perfil de utilizador. Este processamento é realizado periodicamente por Threads, o que garante o processamento paralelo. Recommender: Este componente é responsável por analisar os dados armazenados no banco de dados para gerar recomendações para todas as entidades elementares do Youubi. No entanto, no ambiente de aprendizagem ubíquo, as aplicações clientes precisam informar o contexto do usuário, mesmo com a sua localização atual e detalhes sobre o dispositivo de acesso. Persistence: este componente é responsável pela persistência dos dados no banco de dados, o que garante o isolamento entre as regras de persistência e de negócios. A implementação deste componente usa o JPA padrão (Java Persistence API) com framework EclipseLink. Common Tools: Este componente é constituído por um número de métodos comerciais, tais como algoritmos de conversão. Assim, através da concentração de tais métodos, impede que as regras de negócio sejam implementadas nas classes do componente CommonModel. Ele também pode ser usado por ambos os aplicativos clientes e componentes que são executados no servidor, sem o risco de dependência cíclica. Common Model: Neste componente se concentra as classes JavaBean que representam as entidades da arquitetura. Ao respeitar essa norma e não realizar nenhuma regra de negócio, ele pode ser usado por todos os componentes da arquitetura, incluindo por aplicativos cliente sem risco de dependência cíclica.[11].

Além disso, [14] reforçam que a eficiência de um ambiente de aprendizagem é determinada pela estratégia de aprendizagem que pode ser adaptada, ou seja, os requisitos para o ambiente devem incluir conteúdos adaptados, tecnologias e pedagogias adequadas. Neste sentido, para prover efetividade de uso dos serviços através de recursos ubíquos, torna-se indispensável ter uma definição clara das tarefas, das atividades colaborativas, de quais informações serão disponibilizadas, e por fim, de como será a interação do aluno com estes elementos de acordo com o seu contexto. Em design de interação, de acordo com [16], o estilo de interação refere-se a maneira como o usuário se comunica e interage com os sistemas computacionais. Nesse sentido, [4] afirma que ao projetar um ambiente de aprendizagem apoiado por tecnologia móvel, é necessário uma maior avaliação para ajudar os designers a melhor projetarem atividades de aprendizagem propostas nos ambientes, bem como qual estilo de interação torna-se mais adequado. Sendo assim, ao conceber atividades de aprendizagem que incorporem os recursos ubíquos, estes devem ser projetados em constante negociações ao logo do design, tendo em vista a dinamicidade de serviços propostos pelas tecnologias móveis. III.

AMBIENTE DE U-LEARNING - YOUUBI

O ambiente u-learning Youubi é um ambiente de aprendizagem ubíqua, desenvolvido com uma arquitetura de referência orientada a components (08), além do servidor onde promove serviços compatíveis com às seguintes plataformas: mobile, Web, iDTV, SmartWatch ou outros sistemas através de uma API (Application Programming Interface de serviços [11]. A Figura 1 apresenta os componentes:

Neste sentido, o ambiente u-learning Youubi Youubi será utilizado nesta pesquisa. Este foi desenvolvido para suportar atividades de aprendizagem baseado no contexto. IV. Figura 1 Arquitetura do U-learning - Youubi. [11].

Communication: Este componente implementa a camada de comunicação Web Service, que presta serviços da API Youubi, através de solicitações

PROBLEMA E OBJETIVOS

A. Problema Conforme descrito na introdução, o problema central desta pesquisa tem como foco explorar as dificuldades de adequação de atividades em situações de aprendizagem que incorpore os recursos de computação ubíqua. Buscase uma efetividade do uso dessa tecnologia no contexto educacional de forma a promover a aprendizagem significativa. A questão central na nossa pesquisa é: A

CISTI 2015 | 357

adequação de atividades em situações ubíquas de aprendizagem cria condições mais favoráveis a uma aprendizagem significativa em atividades de aprendizagem? B. Objetivo O objetivo deste projeto é evoluir o modelo pedagógico de comunicação do ambiente u-learning Youubi através da concepção de situações ubíquas de aprendizagem que possibilitem avaliar se os recursos das tecnologias com sensibilidade ao contexto, promovem mudanças expressivas na prática pedagógica, e se podem impactar positivamente ou não na efetividade dos aprendizes de forma a promover melhoria na sua aprendizagem significativa. Para atender ao objetivo geral, foram delimitados os seguintes objetivos específicos: Investigar através de uma revisão sistemática da literatura (RSL) as tecnologias computacionais que apoiam os processos de ensino e aprendizagem em ambientes de educação ubíqua. Compreender os pressupostos pedagógicos que orientam estes ambientes numa perspectiva de contribuir na melhoria de processo de aprendizagem significativa dos discentes;

como construtor para modelagem das dimensões a serem utilizadas na coleta de dados através de entrevistas. A terceira etapa consiste em conceber estratégias para atividades de aprendizagem com base nos achados da RSL e dos dados compilados do estudo etnográfico com usuários para conceber as situações ubíquas de aprendizagem baseado modelo pedagógico de comunicação do ambiente u-learning Youubi. Fase II: A segunda fase consistirá na concepção de protótipo de alta fidelidade dos cenários de aprendizagem ubíquos, envolvendo técnicas de Design Thinking. Para [17] o Design Thinking está embasado em métodos e modelos que enfatizam, comunicam, estimulam e explicitam as características, capacidades e comportamentos inerentes do ser humano permitindo que seus desejos, necessidades e experiências sejam o ponto de partida para a projetar soluções, produtos e serviços. Atualmente, existem várias abordagens do Design Thinking, entretanto, para o desenvolvimento da pesquisa de doutorado, adotamos a proposta do Hasso Plattner Institute of Design at Stanford (d.school), pioneira no uso da do DT no meio acadêmico, composto de seis (06) passos representados na Figura 2.

Analisar a prática docente, com vistas a especificar estratégias para o desenvolvimento de cenários de aprendizagem que incorporem os recursos ubíquos como suporte à prática pedagógica, que favoreça a efetividade de uso destas tecnologias; Identificar os fatores existentes na relação entre o uso de tecnologias ubíquas e as atividades de ensino e aprendizagem: Identificar pressupostos teóricos que permitem extender os recursos do ambiente u-learning Youubi e que valorize a efetividade de uso da tecnologia na prática pedagógica; Avaliar a aceitação e eficácia do novo modelo implementado e as relações entre o uso de recursos de computação ubíqua sensível ao contexto e o aprendizado significativo dos discentes. V.

PROPOSTA DO MÉTODO

Figura 2: Processo de Design Thinking segundo abordagem da d.school de Stanford. [18] .

A Fase III - Consistirá no planejamento e execução do experimento para validação das hipóteses deste projeto. Os resultados gerados serão especificados em forma de estratégias pedagógicas para as situaçoes ubíquas de aprendizagem que favoreçam a efetividade da aprendizagem com o uso de tecnologias ubíquas. Estas poderão ser utilizadas como recomendações de melhoria dos atuais ambientes de aprendizagem ubíqua, bem como, na concepção de novos ambientes. REFERENCES [1]

No sentido, para alcançar os objetivo geral e as hipóteses levantadas nesta pesquisa, o método proposto é composto por 03 (três) fases a saber: Fase I: É composta por 03 (três etapas). Na primeira etapa foi realizada uma revisão sistemática da literatura (RSL) sobre aprendizagem ubíqua, com o objetivo de encontrar e analisar o maior número de trabalhos relevantes na área que pudessem mapear os diferentes abordagens arquiteturais e os processos de aprendizagem utilizados em cenários de aprendizagem ubíqua. Na segunda etapa será aplicada métodos de pesquisa etnográficos com professores do curso de Licenciatura em Computação do IF Sertão PE, para capturar a prática docente com uso das tecnologias no processo pedagógico. Para os procedimentos da pesquisa etnográfica, inicialmente tomamos como referência o modelo estruturado de dimensões e componentes de Albertin [12],

[2]

[3] [4]

[5] [6]

Trendwatching (2013). Disponível em: . Acesso em: 20 jul. 2013 Milrad, M., Wong, L. -H., Sharples, M., Hwang, G.-J., Looi, C.-K. and L. Berge & L. Y. Muilenburg (eds.) Handbook of Mobile Learning, pp 95-108. New York: Routledge, Disponível em:
Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.