์ฌ์ ๋ฆฌ๋
์ค๋ฆฌ์ฝ ๋ฐธ๋ฆฌ๊ฐ AI์ ๋ํด “๋นจ๋ฆฌ ์์ง์ด๊ณ ๊นจ๋จ๋ฆฌ๊ธฐ”๋ฅผ ํ ์ ์๋ ์ด์
사람들은 실리콘 밸리가 “빨리 움직이고 깨뜨리기, 나중에 고치기”라는 호theaded 마인드를 넘어서고, 회사가 더 느리고 책임감 있는 접근 방식을 채택하여 산업의 미래를 구축했다고 말합니다. 그러나 현재의 추세는 다른 이야기를 बत给我합니다. 입에서 나오는 말과는 달리, 회사가 事物을 구축하는 방식은 아직 실제로 변경되지 않았습니다. 테크 스타트업은 여전히捷徑과 거짓 약속의 코드로 실행되고 있으며, 제품의 품질이 떨어지는 것으로 나타나고 있습니다. “빨리 움직이고 깨뜨리기”는 여전히 실리콘 밸리의 신조입니다. 그리고, 그것이本当に 죽었다 하더라도, AI 붐은 그것을 완전한 lực으로 되살렸습니다. 최근의 AI 발전은 이미 우리가 일하고 사는 방식을 급진적으로 변革하고 있습니다. 최근 몇 년 동안, AI는 컴퓨터 과학 전문가들의 영역에서 가정용 도구로 전환되었습니다. ChatGPT와 같은 생성형 AI 도구의 빠른 확산 덕분에, 테크 회사들이 AI와 관련하여 “빨리 움직이고 깨뜨리기”를 하면, 나중에 그것을 “고칠 수 있는” 옵션이 없을 수 있습니다. 특히 모델이 민감한 개인 데이터에 대해 훈련될 때, 이러한 행동은 사회 전반에 걸쳐 잠재적으로 불가역적인 피해를 일으킬 수 있습니다. 악의적인 디프페이크에서 사기 계획까지, 이미 AI의 부정적인 측면이 나타나고 있습니다. 同時に, 이 기술은 우리 사회를 더 나은 방향으로 변화시키는 힘을 가지고 있습니다. 기업의 AI 채택은 클라우드 전환과 마찬가지로 혁신적이며, 회사는 완전히 재건될 것입니다. 또한, 생성형 AI는 우리의 신뢰할 수 있는 보조자가 되어, 일상 활동을 완수하고, 창의적으로 실험하며, 새로운 지식과 기회를解锁하는 데 도움을 줄 것입니다. AI의 미래는 밝을 수 있지만, 그것은 기술이 구축되는 곳에서 주요한 문화적 변화를 요구합니다.
왜 “빨리 움직이고 깨뜨리기”는 AI와 호환되지 않는가
“빨리 움직이고 깨뜰리기”는 두 가지 주요 가정에 기반합니다. 첫째, 출시 시 작동하지 않는 모든 것은 나중에 패치할 수 있다는 가정입니다. 둘째, “깨뜨리기”는 충분한 창의적 코딩과 외부적인 사고로 인해 혁신을 이끌어낼 수 있다는 가정입니다. 그리고, 많은伟大的 혁신이 실수에서 비롯되었다는 사실에도 불구하고, 이것은 페니실린이나 코카콜라와 같은 경우가 아닙니다. 인공지능은 매우 강력한 기술로서, 그것을 다루는 데에는 최대한의 주의가 필요합니다. 데이터 유출과 범죄적 악용의 위험은 간과할 수 없습니다. 불행히도, 실리콘 밸리는 개발 과정의混乱을 미화하는 나쁨習慣을 가지고 있습니다. 회사는 여전히 끊임없는 노력과 업무와 개인 생활의 균형이 없는 것을 승진합니다. 스타트업과 그 주주들은 실수를 증가시키고, 단축을 증가시키는 비현실적인 목표를 설정합니다. 경계는 때때로推進되어서는 안 됩니다. 이러한 행동은 윤리를 희생하여 호재를 추구하는有害한 산업 문화로 결합됩니다. 현재의 AI 개발 속도는 이러한 문화 안에서 지속될 수 없습니다. AI가 世界의 가장 긴급한 문제를 해결하기 위해서는, 그것은 매우 민감한 정보에 대해 훈련되어야 하며, 회사는 그 정보를 보호하는 데에 중요한 책임을 지니고 있습니다. 안전 장치는 구현하는 데 시간이 걸리며, 실리콘 밸리는 시간이 없다고 확신합니다. 이미, 우리는 AI 회사가 필수적인 가드레일을 포기하고 새로운 제품을 내놓는 것을 보고 있습니다. 이것은 단기적으로 주주를 만족시킬 수 있지만, 장기적으로는 이러한 조직을巨大한 재정적 손해에 노출시키며, 또한 모든 신뢰를 잃을 수 있습니다. 또한, 지적 재산권 침해와 저작권 침해의 위험도 있습니다. 이러한 위험은 다양한 연방 소송에서 볼 수 있습니다. 이러한 보호가 없으면, 사람들의 생계가 위험에 처할 수 있습니다. AI 스타트업이 개발을 급하게 하고 시장에 나갈 때, 이것은 많은 것을 고려해야 하는 것으로 보입니다. 그러나, 사람과 정보를 보호하는 것은 협상할 수 없는 일입니다. 사실, 그것은 혜택입니다. 문제가 발생하기 전에 해결책을 구축하고, 나중에 고칠 필요가 없습니다.
새로운 신조: “전략적으로 움직여서 불가침으로 만들기”
지난 5월, EU는 세계 최초의 포괄적인 AI 법률인 인공지능법을 승인하여, 광범위한 투명성 요구와 AI 기술의 완전한 금지를 통해 위험을 관리했습니다. 이 법은 EU의 새로운 기술에 대한 역사적으로 조심스러운 접근 방식을 반영하며, 이는 현재의 붐이 시작된 이후 AI 개발 전략을 지배했습니다. 이러한 회사는最新의 트렌드에 대한 계획 없이 모든 벤처 자금과 엔지니어링 능력을 투입하는 대신, 지속할 수 있는 것을 창조하는 데 노력을 기울입니다. 이것은 미국의 주요 접근 방식이 아닙니다. 입법적 측면에서, 각 州는 자신의 법률을 제안하고 있으며, 이는 불충분한 것에서부터 지나치게 weit까지 다양합니다. 예를 들어, 캘리포니아의 제안된 SB-1047입니다.同時에, AI 경쟁은 강화되고, 실리콘 밸리는 여전히 옛 방식으로 계속하고 있습니다. 벤처 자본가들은 문제를 더욱 악화시키고 있습니다. 새로운 스타트업에 투자할 때, 그들은 가드레일이나 안전 점검에 대해 묻지 않습니다. 그들은 최소한의 가치 있는 제품을 가능한 한 빠르게 출시하여 수표를 받고 싶어합니다. 실리콘 밸리는 빠른 돈을 벌기 위한 계획의 온상이 되어, 사람들이 가능한 한 빠르게, 최소한의 노력으로, 최대한의 돈을 벌고 싶어합니다. 그러나, 그들은 결과에 대해 관심이 없습니다. AI의 시대에는, “빨리 움직이고 깨뜨리기”의 대체제가 필요합니다. “전략적으로 움직여서 불가침으로 만들기”는 같은 수준의 시적 재주를 가지지 못할 수 있지만, 오늘날의 기술 풍경에서 필요한 마인드를 반영합니다. 기술 산업이 더 나아질 수 있다고 믿으며, 그것은 고객 중심적이고 미래 지향적인 마인드를 채택하여, 지속할 수 있는 제품을 창조하고, 사용자와의 신뢰를 유지하는 방식으로 제품을 유지하는 데에서 시작됩니다. 더 생각있는 접근 방식은 사람들이 자신의 삶에 AI를 가져오고, 그것을 신뢰할 수 있도록 할 것입니다.
지속 가능한 미래를 향하여
테크 세계는 먼저 되는 압력에 시달리고 있습니다. 창업자는 다음 큰 것을 즉시 따라가지 않으면, 기회를 놓칠 것이라고 생각합니다. 물론, 먼저 움직이는 것은 성공의 기회를 증가시킬 수 있지만, “첫 번째”라는 것이 안전과 윤리를 희생해서는 안 됩니다.何か를 지속할 수 있는 것을 구축하는 것이 목표라면, você는 더 신중하게 리스크와 약점을 찾을 것입니다. 이것은 또한 혁신과 발명의 새로운 기회를 찾는 방법입니다. 강점을 약점으로 변환할 수 있는 회사는 내일의 도전을 해결할 수 있습니다. 호재는 실제이며, 새로운 AI 시대는 그것에 합당합니다. 그러나, 우리는 이 기술의 힘을 해방시키는 데에 급급해서, 제품을 신뢰할 수 있게 만드는 데에 필요한 안전 장치를 포기할 수 없습니다. AI는 우리의 삶을 더 나은 방향으로 변화시키는 힘을 가지고 있지만, 개발 과정에서 안전과 안전이 핵심이 아니면, 그것은 엄청난 피해를 일으킬 수 있습니다. 실리콘 밸리에게 이것은 각성이 필요합니다. “빨리 움직이고 깨뜨리기, 나중에 고치기”라는 마인드를 버릴 때입니다. 왜냐하면, 미래는 이미 지금이기 때문입니다.












