งาน SCBX Unlocking AI EP 10: IA responsable en acción: de la regulación al impacto en el mundo real

Clausura del evento SCBX Unlocking AI EP.10 IA responsable en acción: de la regulación al impacto en el mundo real Con un debate sobre Puesta en marcha de todo en las organizaciones: creación de políticas de IA responsables y mejores prácticas para el cumplimiento
El evento contó con oradores que han estado en el campo de la IA en Tailandia para brindar opiniones completas sobre la formulación de políticas de IA, el impulso para el uso responsable de la IA y muchos más.
- Dr. Sak Sekkuntad Consultor de Transformación Digital de la Agencia de Desarrollo de Transacciones Electrónicas (ETA) o ETDA
- Sra. Kritiyanee Burantrivet Abogados y Socios de Panadero McKenzie
- Sr. Thiranan Arunwattankul Director de Operaciones compañía MONIX límite
- Sr. Nattapol Jongcharoonkiet Vicepresidente จาก compañía PTT Global Chemical Public Company Limited o GC
- Sr. Worawisut Piñoyang Co-Fundador จาก ImpactMind.ai y Insiderly.ai Actuar como anfitrión
El contenido de esta discusión tiene muchos temas interesantes, SCBX ha resumido la esencia de esta discusión para que la lea. como sigue
Opere la IA de forma segura No olvides educar al Usuario.

- El Sr. Nattapol dijo que uno de los casos de uso inseguro de la IA es el caso de los empleados de Samsung (Estados Unidos) Lleve los datos internos de la organización a GenAI para aprender hasta que el secreto se filtre al público. Este caso ha puesto de manifiesto la importancia de la ciberseguridad, y GC ha aprovechado este caso para recordar a todos los miembros de la organización que: Cuanto más es una organización grande. Cuanta más atención tengamos que prestar a este asunto. Porque si se produce un problema, el daño al que se enfrentará una organización grande será muchas veces mayor que el de una organización pequeña.
- El Sr. Nattapol sugirió que muchas organizaciones están tratando de encontrar métodos técnicos de protección, pero pueden olvidar que otra cosa que se debe hacer al mismo tiempo es educar a los usuarios para que puedan usarlo de manera segura al mismo tiempo. Porque incluso si el cifrado está casi muerto. Si las personas de la organización no lo entienden o no lo saben. Al final, habrá un problema de fuga de datos o un uso descuidado interminable.
Buen modelo de gobernanza de la IA Hay que tener en cuenta los aspectos legales y de gobernanza.
- La Sra. Kritiyanee dijo que hay muchos bufetes de abogados que utilizan la IA para ayudar a trabajar ampliamente, pero existen reglas estrictas que dicen que deben usarse con buena gobernanza y deben contratar estrictamente con proveedores de servicios para que los datos de entrada no se filtren al exterior. Los propios abogados deben tener cuidado de no incluir información confidencial.
- "Aunque no haya una ley sobre la IA, como abogados, no deberíamos hacer que los datos de nuestros clientes Se ha filtrado información confidencial".
- El abogado de Baker McKenzie también recomienda que: Una organización con un buen modelo de gobernanza de la IA explicará a los empleados lo importante que es utilizar la IA de forma responsable en primer lugar. No lo olvides cuando firmes un contrato para unirte a la organización. En todas partes existe la obligación de respetar las normas de la empresa. Si la IA se utiliza de forma negligente, la empresa puede ser demandada. Esto es algo que ha sucedido antes.
- Sin embargo, muchas personas pueden usar GenAI para crear su trabajo, pero esos trabajos son inadvertidamente similares a los de un club con el trabajo de otras personas, lo que, por supuesto, si se usa de manera incorrecta, puede dar lugar a demandas.
- El Sr. Kritiyanee dio el principio de considerar qué elementos son iguales sin problemas, tales como: Si hay una novela con una trama similar a otra, entonces no es igual a la otra. Sin embargo, no puede considerarse plagio o infracción de derechos de autor.
- Sin embargo, si profundizas en los detalles y encuentras Los rasgos de carácter son los mismos. La ubicación de la historia es la misma. La escena del incidente es similar. Cualquiera que lo vea pensará inmediatamente en otra historia. Este caso tiene un alto riesgo de ser demandado por el verdadero propietario de la obra.
Directrices para el uso de la IA con los sectores público y privado
- El Dr. Sak dijo que las agencias gubernamentales están tan atentas al uso de GenAI como el sector privado. Se enfatiza que las personas a nivel de la cabeza Si se asignan tareas a los subordinados. El jefe siempre debe comprobar qué áreas están utilizando la IA sus subordinados para ayudar. ¿O no? Algunas organizaciones tienen regulaciones que prohíben a los funcionarios usar su IA a través de teléfonos móviles, y esta práctica está a punto de transmitirse directamente a todos los funcionarios al mismo tiempo. Si alguna agencia privada quiere utilizar las directrices, también puede utilizarlas.
- El Dr. Sak enfatizó que podemos usar GenAI para ayudar con el trabajo, pero debemos ser honestos y saber que lo que se puede usar no es ilegal. No va en contra del código de ética y ética, y existe un riesgo aleatorio de ser ilegal y poco ético. La persona es el jefe que se encarga de inspeccionar el trabajo de sus subordinados. Debes conocer este punto y no dejarlo pasar fácilmente.
- El Sr. Thiranan añadió: A pesar de que hay pautas que todos deben seguir, cada organización también debe adaptarlas al contexto de cada organización. Cada lugar tiene un contexto diferente. Ya sea una organización pública o privada.
El desarrollo humano debe ir de la mano con el uso de la tecnología.
- Sr. Thiranan Enfatizó que si bien la tecnología se utiliza en el trabajo, siempre es necesario enfocarse en el desarrollo humano. Lo importante es no tener demasiada confianza en el uso de la tecnología porque si se usa con prejuicios, causará problemas como resultado.
- Y no pienses que cuando ocurre un problema, el empleado no tendrá la culpa. La organización también puede ordenar que el empleado sea castigado, lo que depende de la gravedad de la ofensa. Las organizaciones deben ser resolutivas para no provocar reincidencias en el futuro.
- El Sr. Nattapol añadió que todas las organizaciones Las medidas de talla única no deben utilizarse para educar a todo el mundo sobre la IA. No pienses que tienes que proporcionar el mismo conjunto de información y todos entenderán lo mismo. No olvide cuántos niveles de usuarios de IA hay en su organización. Qué nivel de personas debe saber sobre qué, que cada persona en cada posición tiene diferentes cosas que saber y precauciones.
Precauciones para el uso de la IA que todo el mundo debe conocer
- La Sra. Kritiyanee sugirió: Antes de usar una IA, lea atentamente los términos de uso. Porque cada uno tiene requisitos diferentes detrás de escena. Algunos de ellos cuando los usamos. Los derechos de autor de la obra nos pertenecen en su totalidad, pero algunos no otorgan el derecho a la obra como nuestros derechos de autor. Hay que leer detenidamente el contrato, que en realidad no sólo trata del uso de la IA, sino también del uso de todas las aplicaciones.
- El Dr. Sak enfatizó que nosotros Puede que no haya leyes formales que rijan la IA, pero no olvides que también tenemos otras leyes. Aún así, no tengas demasiado miedo de la ley para no atreverte a usarla o usarla hasta el extremo. Pregúntale tanto a ChatGPT que no encontrarás ninguna información de otras fuentes.
- จงใช้งานอย่างมี Critical Thinking Y úsalo a tu manera y la organización será la mejor.