000 | 03194nam a22003497a 4500 | ||
---|---|---|---|
001 | 36456 | ||
003 | CO-SiCUC | ||
005 | 20241018151454.0 | ||
007 | ta | ||
008 | 241018s2022 sp |||||r|||| 00| 0 spa d | ||
020 | _a9788413695037 | ||
035 | _a(CO-SiCUC) | ||
040 |
_aCO-SiCUC _bspa _cCO-SiCUC _erda |
||
041 | 0 | _aspa | |
082 | 0 | 4 |
_223 _a343.09998 _bC334r 2022 |
100 | 1 |
_aCasadesús Ripoll, Paula. _eautora _4aut _965514 |
|
245 | 1 | 3 |
_aLa responsabilidad civil por el uso discriminatorio de los datos personales a través de la inteligencia artificial / _cPaula Casadesús Ripoll. |
264 | 1 |
_aGranada, España : _bEditorial Comares, _c2022. |
|
264 | 4 | _c©2022. | |
300 |
_a200 páginas ; _c24 cm |
||
336 |
_2rdacontent _atexto _btxt |
||
337 |
_2rdamedia _asin mediación _bn |
||
338 |
_2rdacarrier _avolumen _bnc |
||
490 | 0 | _aColección Derecho Civil | |
520 | 1 |
_aLa inteligencia artificial incorporada en multitud de programas y aplicaciones tiene Múltiples beneficios que son por todos conocidos. Ahora bien, su uso no está exento de riesgos. De hecho, el uso de muchos de estos programas y aplicaciones dotados de inteligencia artificial supone una amenaza directa para los derechos más fundamentales de los individuos. Una de las cuestiones que más ha preocupado a las instituciones públicas desde un primer momento ha sido precisamente la problemática en torno a la regulación de la responsabilidad civil por los daños y perjuicios causados por el uso de estos robots y aplicaciones de inteligencia artificial. De este modo, el debate cristalizó en una primera resolución del Parlamento Europeo: la Resolución del Parlamento Europeo, de 16 de febrero de 2017, recomendaciones con destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)), a la que ha seguido la publicación de numerosos informes, comunicaciones y otros documentos. Entre los derechos fundamentales más amenazados por el uso de algoritmos de inteligencia artificial en el procesamiento de datos y en la toma de decisiones se encuentra el derecho a la igualdad y la prohibición de discriminación, especialmente vulnerable debido a la naturaleza de la tecnología en cuestión. Es objetivo de este libro poner de manifiesto el alto riesgo que el uso de esta tecnología supone para derecho este fundamental. A continuación, se abordan los principales retos para el marco normativo vigente y los instrumentos jurídicos disponibles para lidiar con la problemática cuestión de la atribución de responsabilidad por los daños ocasionados por la vulneración de este derecho a causa del uso de algoritmos de inteligencia artificial en el procesamiento de datos y en la toma de decisiones automatizadas. _cTomado de : https://fama.us.es/discovery/fulldisplay?context=L&vid=34CBUA_US:VU1&search_scope=all_data_not_idus&tab=all_data_not_idus&docid=alma991013734105704987 |
|
590 | _aDerecho | ||
650 | 1 | 4 |
_aResponsabilidad civil _zEspaña. _965515 |
650 | 1 | 4 |
_aDerecho a la vida privada _zEspaña. _965516 |
650 | 1 | 4 |
_aInteligencia artificial. _917726 |
650 | 1 | 4 |
_aProtección de datos (Informática) _xDerecho _zEspaña. _965517 |
942 |
_2ddc _cBK |
||
999 |
_c36456 _d36456 |