14 marzo 2025

VisiondelCine

VisiondelCine cubre noticias de última hora, política, cultura y eventos de todo el país. Recibe información oportuna y relevante que te interesa.

El proyecto de ley de protección de IA de California está en llamas. Es la mejor manera de mejorarlo para hacer la ley

4 min read

25 de agosto, California aprobó la Asamblea Legislativa Proyecto de ley del Senado 1047 – Frontier Artificial Intelligence Models es una ley de innovación segura y protegida, y ha enviado al gobernador Gavin News para firmas. Binario para el 30 de septiembre Binario: Mátalo o haga ley.

Para reconocer la posible pérdida de IA avanzada, SB 1047 necesita consolidar a los desarrolladores de tecnología a medida que desarrollan e implementan la factura como “modelos cubiertos”. El Fiscal General de California puede aplicar estos requisitos siguiendo los pasos cívicos contra los equipos que no están teniendo “cuidado razonable” contra las partes de que sus modelos pueden no causar daños catastróficos, o 2) sus modelos pueden cerrarse en caso de emergencia.

Muchas empresas prominentes de IA se oponen al proyecto de ley individualmente o a través de las agencias comerciales. Sus objeciones incluyen la ansiedad de que la definición de modelos cubiertos no es muy complicada en la cuenta del progreso técnico, no es razonable ser responsable del desarrollo de aplicaciones nocivas, y el proyecto de ley se innovará en los isquiotibiales y pequeñas empresas de inicio sin fuentes para dedicar el proyecto de ley.

Estas objeciones no son estúpidas; Son las calificaciones de consideración y la enmienda más probable en el proyecto de ley. Sin embargo, el gobernador debe ser firmado o aprobado porque un veto indica que cualquier control de IA ahora es aceptable hasta que sea a menos que haya un daño catastrófico. Esta posición nacional no es correcta para esta tecnología nacional.

El autor de Bill, Sen Scott, ganador (D-San Francisco) está involucrado en la industria de la IA en varias repeticiones antes de la legislatura final. Al menos una gran empresa de IA, antropológica, buscó cambios específicos y significativos en el texto, muchos de los cuales se incluyeron en el proyecto de ley final. Después de que la Asamblea Legislativa lo aprobó, el Director Ejecutivo Etnográfico Dicho Que “los beneficios de la misma probablemente excedieron sus gastos … (aunque) algunos aspectos del proyecto de ley (aún) parecen estar relacionados u oscuros”. Hasta hoy, la evidencia universal sugiere que la mayoría de las otras agencias de IA son Solo elige oponerse al proyecto de ley en principioEn lugar de participar en esfuerzos específicos para corregirlo.

¿Qué debemos hacer a nuestra oposición, especialmente porque algunos de los líderes de esta organización han expresado su preocupación públicamente por los posibles peligros de la IA de la IA? En 2023, el CEO de OpenAi y Google Dipmind, por ejemplo, Firmar una carta abierta Compara el riesgo de IA con la epidemia y la guerra nuclear.

Una conclusión razonable es que se oponen a cualquier control obligatorio contra la etnia. Quieren salvarse el derecho de decidir cuándo excluyen las instalaciones del modelo que se implementa en el riesgo o intento de investigación o cualquier otro modelo desplegado. Más importante aún, quieren ser totalmente responsables de aquellos que desarrollan aplicaciones basadas en sus modelos cubiertos. Hay casos judiciales recientes Propuesto Los padres que pusieron un arma en las manos de su hijo tienen algunas responsabilidades legales para los resultados. ¿Por qué las empresas de IA deberían comportarse de manera diferente?

Las compañías de IA quieren que el público les dé una mano libre a pesar del conflicto de sus intereses obvios, no se debe confiar en las compañías de amor que hacen decisiones que puedan obstaculizar su rentabilidad de ganancias.

Estábamos aquí antes. La Junta de Operai desestimó a su CEO en noviembre de 2021 porque determinó que bajo su dirección, la compañía estaba bajando por un camino técnico peligroso. En varios días, varias partes interesadas en OpenAi pudieron revertir la decisión, la restauraron y salieron de los miembros de la junta que estaban a favor de disparar. Honestamente, la Junta de OpenA fue particularmente estructural para permitir que la Junta actuara como la posibilidad de una ganancia de la organización, se suponía que la Junta se aseguraría de que el interés público fuera primero.

Si el SB 1047 es vetado, las fuerzas antirregulación declararán una victoria que muestra el conocimiento de su posición y tendrá muy poco entusiasmo por sus leyes alternativas. Ningún control significativo funciona para su conveniencia y crearán un veto para mantener esa estabilidad.

Alternativamente, el gobernador puede crear la Ley SB 1047, agregando una invitación abierta a sus oponentes para ayudar a corregir sus defectos específicos. Habrá suficiente entusiasmo por arreglar a los oponentes del proyecto de ley con el lugar que ven como una ley incompleta y para trabajar con una fe honesta. Sin embargo, el enfoque principal es que la industria no es el gobierno, la industria expresa su opinión sobre el cuidado razonable adecuado de sus modelos avanzados. El papel del gobierno se asegurará de que la industria misma haga lo que hace la industria.

Las consecuencias de matar y estabilizar SB 1047 son suficientes: las empresas pueden avanzar en sus tecnologías sin restricciones. Las consecuencias de tomar un proyecto de ley incompleto serán un paso significativo hacia el mejor entorno regulatorio para todos los interesados. Esto comenzará con el final del juego regulatorio de la IA. Este primer paso establece la melodía de lo que vendrá y establecerá la validez del control de IA. El SB 1047 del gobernador debe estar firmado.

El erudito de investigación senior de Herbert Lynn e Institución Houver del Centro Internacional de Protección y Cooperación de la Universidad de Stanford. Es autor de “Armas cibernéticas y nucleares”.

Source link